生成AI×エッジAIに向けて「NVIDIA Jetson Orin Nano」上で稼働する小規模言語モデルSLMと画像言語モデルVLMの検証を開始
2024 年 3 月 25 日
株式会社ヘッドウォータース
(コード番号:4011 東証グロース)
生成 AI×エッジ AI に向けて
「NVIDIA® Jetson Orin™ Nano」上で稼働する
小規模言語モデル SLM と画像言語モデル VLM の検証を開始
AI ソリューション事業を手掛ける株式会社ヘッドウォータース(本社:東京都新宿区、代表取締役:篠田
庸介、以下「ヘッドウォータース」)は、日本マイクロソフトが提供する SLM(Small Language Models:小
規模言語モデル)「Phi-2」と、Meta 社が提供する「LLaMA」をベースとしたオープンソース SLM
「TinyLlama」、ならびに VLM(Vision-Language Model:画像言語モデル)「LLaVA」を NVIDIA 提供の小型
エッジデバイス「NVIDIA® Jetson Orin™ Nano」上で稼働させた動作検証を開始しました。
■検証開始の経緯
ヘッドウォータースでは、「Azure OpenAI Service」による企業向け GPT サービスラインナップの拡充
を行っており、企業向けに生成 AI、ならびに LLM(大規模言語モデル)と当社の技術力を活かした RAG
(Retrieval Augmented Generation)システム、伴走支援型ラボなど多くのソリューションを企業に提供
してまいりました。
また、NVIDIA とのコラボレーションによって、「NVIDIA Jetson」シリーズを活用したエッジ AI ソリュー
ションの開発に取り組み、スマート化を推進する企業に対しても同様にソリューションを提供して参りまし
た。
そのような状況の中、当社が強みとしているエッジ AI 領域で、スマートストア、スマートファクトリー、ス
マートシティ、スマートモビリティを提供する顧客企業から「生成 AI を使って、さらにスマート〇〇化を進め
られないか?」というご相談をいただく機会が増えております。
このような声に応えるため、ヘッドウォータースでは、生成 AI×エッジ AI 領域の取り組み強化を目的
に、日本マイクロソフトの SLM「Phi-2」と、Meta 社の「LLaMA」をベースとしたオープンソース SLM
「TinyLlama」、ならびに VLM「LLaVA」を NVIDIA の「NVIDIA® Jetson Orin™ Nano」上で検証する
ことによって、エッジ AI と生成 AI を組み合わせたビジネス活用方法の整理と活用拡大に向けたアーキテク
チャーの確認を行ってまいります。
■検証内容について
SLM の主な利点は、「LLM(大規模言語モデル)の軽量化」にあります。通常 LLM を運用するには莫大
なコストが必要となりますが、これは AI が膨大な量のデータを処理するために高価なコンピューティングリ
ソースが必要になるためです。一方、SLM は小規模なデータ処理となるため、消費電力が少ないエッジデバ
イスのような小型コンピュータ上で言語モデルを稼働させることができ、さらにクラウドを経由せずローカ
ル(オフライン)環境で言語モデルを扱える事から、セキュアでコスト効率も良いという特徴があります。
これらの特徴を最大限に発揮させるため、オープンソースの VLM「LLaVA」を「NVIDIA® Jetson
Orin™ Nano」で稼働できるように 4 ビット精度で量子化してメモリ使用量を削減させます。これによって
パフォーマンスを向上させた「nanoVLM」「Live LLaVA」を活用でき、画像や映像、テキストを読み込む
マルチモーダルな生成 AI の稼働が可能となります。
検証を通して、
⚫ 自動車×生成 AI による「音声対話できる自動車」
⚫ スマートファクトリーにおけるセキュリティを考慮したオンプレミス型生成 AI
⚫ 音声によるロボティクスの機械制御
⚫ スマートシティの都市 OS データを活用した生成 AI による案内
⚫ スマートストアにおいて自動接客を行う生成 AI
といったソリューションの展開を目論み、このような事例で生成 AI×エッジ AI 領域の言語モデルテクノロジ
ーを活用してまいります。
■SLM(小規模言語モデル)とは
SLM(小規模言語モデル)は、LLM(大規模言語モデル)よりもサイズが小さく軽量化された言語モデルで
す。高速なトレーニングと推論が可能で、リソース効率も高まり、コストパフォーマンスに優れています。ま
た、リソースに制約のあるデバイスやエッジコンピューティングに適しており、セキュアで機密性が高いと言
った様々な特徴があります。より小型となる言語モデルの可能性が生成 AI カテゴリーで注目されており、小規
模言語モデルの採用が増加しております。
■Phi-2 とは
日本マイクロソフトが提供する小規模言語モデルで、優れた推論能力と言語理解能力を実証する 27 億パラ
メータの言語モデルで、130 億未満のパラメータを持つ基本言語モデルの中で最先端のパフォーマンスを示し
ます。複雑なベンチマークでは、Phi-2 は最大 25 倍のモデルと同等、またはそれを上回るパフォーマンスを発
揮します。
コンパクトなサイズの Phi-2 は、機構の解釈可能性、安全性の向上など、言語モデルの研究開発を促進する
ために、Azure AI Studio モデルカタログ(MIT ライセンス)で利用できます。
■LLaVA とは
マイクロソフト、ウィスコンシン大学、コロンビア大学の研究者が公開したオープンソースのマルチモーダ
ルな LLM です。meta 社が提供する「LLaMA」をベースにした大規模な言語モデルと画像分析機能を持つ視覚
モデルであり、ScienceQA ベンチマークで最先端の精度を達成しています。
■NVIDIA® Jetson Orin™ Nano とは
NVIDIA® Jetson Orin™ Nano は、NVIDIA Ampere アーキテクチャーGPU を採用し、電力効率に優れた
小型のフォームファクターで従来のエントリーレベル向けエッジ AI の常識を覆す性能を発揮します。
最大毎秒 40 兆回の演算性能を持ち、前世代の NVIDIA® Jetson Nano™ と比較して最大 80 倍のパフォ
ーマンス向上を実現。これまで以上に複雑な AI モデルを活用できるようになります。
■今後について
ヘッドウォータースでは、SLM や MiniVLM といった小型化された言語モデルは生成 AI をあらゆるプラッ
トフォームに適用させるために必要なテクノロジーであると考えております。
今後は、生成 AI×エッジ音声/画像解析、生成 AI×オンプレミス、TinyGPT-V 利用やモバイル VLM 推進、
RAG システムに SLM を活用する「ハイブリッド RAG」、Databricks のデータ連携、NVIDIA 社の生成 AI
アプリマイクロサービス「NIM」に関するソリューション展開を図ってまいります。
また、当社の掲げるアライアンス戦略では、顧客企業ともビジネスパートナーとなり共に生成 AI 経済圏を
拡大する取り組みを行ってまいります。
なお、本件による当社の当期業績に与える影響は軽微であります。今後開示すべき事項が発生した場合には
速やかにお知らせいたします。
■参考情報
Azure OpenAI Service Advanced パートナー認定について
https://www.headwaters.co.jp/news/azure_openai_service_advanced_partner.html
「Azure OpenAI Service ×音声」による企業向け GPT サービスラインナップについて
https://www.headwaters.co.jp/news/azure_openai_service_gpt_voice.html
NVIDIA Inception のパートナー企業に認定
https://www.headwaters.co.jp/news/nvidia_inception.html
NVIDIA の「Metropolis Partner Program」に参画
https://www.headwaters.co.jp/news/nvidiametropolis_partner_program.html
データブリックスの SI コンサルティングパートナーに認定
https://www.headwaters.co.jp/news/databricks_partner.html
■商標について
記載されている製品名などの固有名詞は、各社の商標または登録商標です。
<会社情報>
会社名:株式会社ヘッドウォータース
所在地:〒163-1304 東京都新宿区西新宿 6-5-1 新宿アイランドタワー4階
代表者:代表取締役 篠田 庸介
設立 :2005 年 11 月
URL :https://www.headwaters.co.jp
<本件のお問い合わせ>
株式会社ヘッドウォータース
メール:info@ml.headwaters.co.jp
9293
新着おすすめ記事
-
綿半ホールディングス
-
フューチャーリンクネットワーク
-
アライドアーキテクツ