AIコンサルのコラム一覧に戻る
AIコンサル

2023年4月のAI経済からの5つの教訓

2026-01-21濱本

大規模言語モデル(LLM)は、AIアプリケーションの発展において重要な役割を果たしており、今後ますます需要が高まっていくと予想されます。しかし、LLMの開発においては、専有データやGPUアクセスなど、多くの課題が存在します。

2023年4月のAI経済からの5つの教訓
シェア

株式会社TIMEWELLの濱本です。

2023年4月のAI経済からの5つの教訓

引用:https://gisford.medium.com/five-takeaways-from-the-april-2023-ai-economy-2381255d7a96

【要約】

大規模言語モデル(LLM)は、AIアプリケーションの発展において重要な役割を果たしており、今後ますます需要が高まっていくと予想されます。しかし、LLMの開発においては、専有データやGPUアクセスなど、多くの課題が存在します。専有データは、LLMの開発に不可欠な要素であり、その重要性は今後ますます高まることが予想されます。また、GPUアクセスについても、企業が必要な数を過小評価していることが多く、その需要はますます高まるでしょう。

さらに、LLMの正確性を評価することも重要ですが、現在のオプションは質的なものが主流であり、よりデータ駆動的な評価方法の開発が求められています。

LLMエコシステムにおいては、オープンソースとクローズドモデル、自社でのセルフホスティングと大手プレーヤーによるクラウドホスティングなど、様々な緊張関係が存在しています。しかし、LuxポートフォリオのHugging Faceなど、オープンソースエコシステムを支援する企業もあり、特に興味深いのがAnthropicであり、そのエコシステムはOpenAIやMicrosoft以外のプレーヤーとも連携していくことが予想されます。

LLMエコシステムの発展には、これらの課題や緊張関係を克服する必要があり、それぞれの企業や組織が自社のプロダクションユースケースに基づいたオープンとクローズド、セルフホスティングとクラウドホスティングのコンボを提供することが求められています。

【ポイント】

大規模言語モデルの開発にはGPUへのアクセスと専有データが必要であり、現在は大手クラウドプレーヤーによって提供されていることが多い。

大規模言語モデルの評価方法やオープンソースとクローズドモデルの緊張関係など、未解決の問題が多く残されている。

AIインフラストラクチャーにおいて、コスト以上のROIを提供する新しいプレーヤーが現れる一方、オープンソースエコシステムを支援する企業も存在する。企業はプロダクションユースケースに基づいて、オープンソースエコシステムとクローズドモデルのコンボを提供することが重要である。

【全文翻訳】

過去数週間、私はLuxポートフォリオ企業のHugging Face、Runway、MosaicMLなど、そしてStanfordのFoundational Model Research Centerなどの学術機関の研究者、起業家、業界の専門家50人以上とAIインフラストラクチャーとアプリケーションの現状について話し合いました。ハードウェアやファインチューニングなど、多くの興味深い情報が残されているため、これは完全なものではありませんが、以下が学んだことです。

1.GPUへのアクセスは重要です

ほとんどの企業は、AIアプリケーションを実行するために必要なGPU(グラフィック処理ユニット)の数を過小評価しています。特にAIがすべてのアプリケーションでより一般的になり、各アプリケーションのワークフローで複数のユースケースが発生するようになると、GPUの需要はますます高まるでしょう。

現在、大規模な言語モデルをスケールで実行しているすべての企業は、高価なコンピュート契約が必要であり、通常はA100 GPU(クラウドプロバイダーのAWS、GCP、Azureなどの大手企業の提供するものが多い)またはスーパーコンピュータクラスターを使用しています。

今日、多くのスタートアップや研究室を含めた小規模な企業にとって、大規模なGPUアクセスを独占する企業はほとんどありません。また、コンピューティングはエネルギーを消費するため、コンピュートを安価に提供する企業もあります(例えば、OpenAI APIは、より高価なChat-GPT消費者向け製品と引き換えにコンピュートを安価に提供しています)。

メジャープレイヤー(MicrosoftやGoogleなど)と提携する企業もありますが、MetaやOracleを過小評価するわけにはいかないでしょう。スケールでLLMsを実行するためには、コンピュートが不可欠です。

2.専有データは城壁となる

現在、新しい大規模言語モデルを訓練するために、ウェブ上に「良質でクリーンな」データが不足しています。データはLLMの開発において重要なブロッカーです。非構造化データは、今まで以上に最大限に活用されています。

データのインセンティブにより、組織がデータを貢献し、データの取得がますます重要になり、ミッションクリティカルなユースケースにおいて結果を実際のデータソースに戻すための手段となります。

大規模言語モデル向けの専門データセットは、AIアプリケーションにとって重要な城壁となります(特に、特定のユースケースに対してターゲットされたデータ製品のフライホイールまたはワークフローと組み合わせられた場合)。Luxポートフォリオの中で、クリエイティブ経済やビデオ制作の生成AIに焦点を当てたRunwayMLは、素晴らしい例です。

時間が経つにつれて、より高度なLLM(例えばGPT-5やGPT-6)は、専門の垂直データセットで訓練されたモデルさえも上回る可能性があります。

3.インフラストラクチャのマージン圧縮

大手クラウドプレーヤーのほとんど(AWS Sagemaker、AzureML、Google Cloud tooling)は、推論からモデルの展開、実験までのAIインフラストラクチャスタックを無料で提供しています、または提供する予定です。

多くのインフラモデルは低マージンであり、大手プレーヤーに割り込むことは価格に敏感な顧客の支持を得るのが難しくなっています。

新しいインフラストラクチャプレーヤーとして、コスト以上の広範なROI(例えば、自己ホスト型または分散型サーバー、垂直インフラストラクチャ、10倍優れたユーザーまたは開発者体験)を訴求する必要があります。Together.xyzは、暗号原則とAIを組み合わせた素晴らしい例です。

4.評価は未解決の問題です

現在、大規模言語モデルが正確に応答したかどうか、およびその回答が満足であったかどうかを評価することは困難です。

現在市場で提供されているオプションのほとんどは、より質的または「手振り」のものであり、「正しく見えた」というようなものです。モデルが幻想を見たのか、または完全に誤った答えを出したのかを測定するのはまだ難しいです(Truthful QA論文は興味深い例を提供しています)。

大規模言語モデルを正確性とQ&Aの観点からより数量的かつデータ駆動的に評価する方法は、極めて重要です。

https://gisford.medium.com/five-takeaways-from-the-april-2023-ai-economy-2381255d7a96

5. オープン vs. クローズドの緊張関係

オープンソース vs. クローズドモデルの緊張関係(例:OpenAI vs. MetaのLLaMA)

セルフ vs. クラウドホスト型AIインフラストラクチャー(例:MosaicML vs. AzureML)

企業がLLMまたはMLツールを使用して作業する際に、大手プレーヤーによってホストされるパフォーマンスが複利化されるか、自社のプライベートクラウド上で実行されるかに関係なく、AIアプリケーションをセルフホストする方法と主権を維持することができるのか?

時間の経過とともに、LLMエコシステムは半導体産業、データベース産業、またはまったく異なる何かに似るようになるのでしょうか?

それは分かりにくいですが、私の予感は、企業のプロダクションユースケースに基づいて、オープン vs. クローズドモデルとセルフ vs. クローズドインフラストラクチャーのコンボを提供することになるでしょう。LuxポートフォリオのHugging Faceのような企業は、オープンソースエコシステムを支援しており、最近WoodstockAIを開催し、5000人以上を集めた史上最大のオープンソースのmeet-upを開催しました。

Anthropicのような大規模言語モデルは、OpenAIやMicrosoftのエコシステム以外のクラウドやエコシステムプレーヤーと連携することで、特に興味深いです。

このAIコラムは、オンラインアシスタントサービス 「TIMEWELL」が制作しています。

この記事が参考になったらシェア

シェア

AIコンサルについてもっと詳しく

AIコンサルの機能や導入事例について、詳しくご紹介しています。