AIコンサル

エンタープライズAI用語集|LLM・RAG・GraphRAGなど40語を初心者向けに解説

2026-02-12濱本竜太

LLM、RAG、GraphRAG、ハルシネーションなどエンタープライズAIの重要用語40語を初心者にも分かるよう解説。業務でAIを活用する方の必読ガイド。

エンタープライズAI用語集|LLM・RAG・GraphRAGなど40語を初心者向けに解説
シェア

エンタープライズAI用語集|LLM・RAG・GraphRAGなど40語を初心者向けに解説

株式会社TIMEWELLの濱本です。「RAGって何?」「ハルシネーションって聞いたけど意味がわからない」――社内でAI導入の話が進むなかで、専門用語についていけないと感じたことはありませんか。この用語集では、企業でAIを使ううえで押さえておきたい40の基本用語を、前提知識ゼロの方にも伝わるようにまとめました。会議やベンダーとの打ち合わせで「あの言葉、実はよくわかっていなかった」という状態を今日で終わりにしましょう。


目次


基礎モデル・アーキテクチャ編

AI(Artificial Intelligence / 人工知能) — 「このメール、営業案件かクレームか、自動で仕分けしてくれない?」——その仕組みがAIです。人間の知的な作業をコンピュータに再現させる技術の総称で、画像認識や文章生成まで守備範囲は広い。お問い合わせ対応の自動振り分けも、立派なAI活用の一つです。

LLM(Large Language Model / 大規模言語モデル) — 膨大なテキストデータを使って訓練された、言語を理解し生成するAIモデルです。GPTやClaudeがこれにあたります。人間が書いたような文章を作れるのが特徴で、社内文書の下書きや翻訳に使われています。

GPT(Generative Pre-trained Transformer) — OpenAI社のLLMシリーズ。名前を分解すると「事前学習済み(Pre-trained)の文章生成(Generative)Transformer」で、そのまま技術の説明になっています。ChatGPTはGPTを対話向けにチューニングしたサービスです。

Claude(クロード) — Anthropic社が開発したLLMです。長い文書の読解や安全性への配慮に強みがあり、企業での業務利用が広がっています。TIMEWELLが提供するエンタープライズAI「ZEROCK」でも、Claudeをはじめ複数のLLMを組み合わせて高精度な回答を実現しています。

Gemini(ジェミニ) — Google DeepMindが開発したマルチモーダルLLMです。テキストだけでなく画像や動画も理解できる点が特徴で、Google Workspaceとの連携が進んでいます。

Transformer(トランスフォーマー) — 2017年にGoogleが発表した、現在の主要なLLMの基盤となるAIの設計構造です。文章中の単語同士の関係を一度に把握できる「注意機構(Attention)」が画期的で、それまでの技術より遥かに自然な文章を生成できるようになりました。

パラメータ(Parameter) — RPGの経験値に近い概念。AIモデルが学習を通じて獲得する数値の集まりで、多いほど複雑な判断ができる傾向にあります。GPT-4は数千億個規模。ただし「パラメータが多い=賢い」とは限らず、学習データの質やアーキテクチャも大きく影響します。

マルチモーダル(Multimodal) — テキスト、画像、音声、動画など複数の種類の情報を同時に扱えるAIの能力を指します。たとえば、製品写真を見せて「この部品の不良箇所を教えて」と聞けるようなAIがマルチモーダル対応です。

トークン(Token) — AIにとっての「一文字」のようなもの。ただし実際は日本語1文字=1トークンとは限らず、単語や文節で区切られることもあります。APIの利用料金はこのトークン数で課金されるので、コスト見積もりの段階で必ず登場する概念です。


ここからは、実際にAIを業務で使う際に頻出する「データの扱い方」に関する用語です。RAGやベクトルDBなど、ベンダーとの打ち合わせで飛び交う言葉が並びます。

データ処理・検索技術編

RAG(Retrieval-Augmented Generation / 検索拡張生成) — 図書館で本を調べてから答える、あのイメージです。AIが回答を生成する前に、社内文書やデータベースから関連情報を検索し、その情報を根拠にして回答を組み立てます。ZEROCKではこのRAG技術を活用し、社内ナレッジに基づいた正確な回答を生成します。

GraphRAG(グラフRAG) — 通常のRAGをさらに進化させた技術です。単に文書を検索するだけでなく、情報と情報のつながり(グラフ構造)を理解して回答を生成します。「Aさんが担当するBプロジェクトはC部署と関係がある」といった複雑な関係性もたどれるため、より的確な回答が可能になります。

エンベディング(Embedding / 埋め込み表現) — 言葉を「座標」に変換する技術、と考えるとわかりやすいでしょう。テキストや画像を数百次元のベクトル(数値の列)にすることで、「営業報告」と「セールスレポート」が近い座標に配置され、AIが「意味が似ている」と判断できるようになります。

ベクトルDB(Vector Database) — RAGの心臓部。従来のデータベースが「キーワード完全一致」で引くのに対し、ベクトルDBは「意味が近いもの」を探せます。エンベディングされたデータを高速検索する専用のデータベースで、「退職」と入力して「離職防止施策」がヒットするのはこの仕組みのおかげです。

チャンク(Chunk) — 長い文書をAIが処理しやすいサイズに分割したかたまりのことです。たとえば100ページの社内マニュアルを、段落や見出し単位で区切る作業がチャンキングです。分割の仕方によって検索精度が変わるため、実は運用上とても重要な工程です。

リランキング(Reranking) — RAGで検索した候補を、さらに別のAIモデルで優先順位を付け直す処理です。最初の検索で10件ヒットしたなかから、質問の意図に本当に合うものを上位に並べ替えます。回答の品質を引き上げるための仕上げ工程といえます。

インデキシング(Indexing) — 文書をAIが検索しやすい形に整理・登録する前処理のことです。書籍でいう「索引」を自動で作るイメージで、この処理がきちんとできていないと、いくら良いRAGシステムを使っても欲しい情報が見つかりません。

セマンティック検索(Semantic Search) — キーワードの完全一致ではなく、文章の「意味」に基づいて検索する技術です。「売上が落ちた理由」と入力して「業績低迷の原因分析」という文書がヒットするのは、セマンティック検索のおかげです。

コンテキストウィンドウ(Context Window) — LLMが一度に処理できるテキストの量の上限です。本を読むときの「一度に開ける最大ページ数」と考えてください。コンテキストウィンドウが大きいモデルほど、長い文書を一括で読み取れます。2026年現在、100万トークン以上に対応するモデルも登場しています。


データの扱いが理解できたところで、次はAIモデルそのものの「鍛え方」に入ります。ファインチューニングとRAGの違いは、ベンダー選定時にもよく聞かれるテーマです。

学習・チューニング編

学習(Training) — 教科書で勉強する工程に相当します。AIモデルに大量のデータを読み込ませ、パターンを記憶させるプロセスで、この段階でモデルの基礎能力が決まります。

推論(Inference) — 学習済みのAIモデルが、新しい入力に対して回答を生成する処理のことです。学習が「勉強」なら、推論は「テスト本番」にあたります。企業がAIを運用するとき、実際に費用がかかるのはこの推論の部分です。

ファインチューニング(Fine-tuning) — 「既存のAIモデルを自社データで訓練し直す」とよく説明されますが、実際にやっている企業は意外と少数派です。汎用LLMに自社の業界用語や専門知識を覚えさせる手法で、効果は高い一方、データの準備やコストがかなりかかる。まずはRAGで十分な精度が出るか検証するのが現実的です。

余談ですが、RAGとファインチューニングの使い分けで悩む企業は本当に多い。私の経験では、「社内の既存ドキュメントを参照して答えてほしい」ならRAG、「回答のトーンや専門性を根本から変えたい」ならファインチューニング、と切り分けるのが一番わかりやすいです。

LoRA(Low-Rank Adaptation) — ファインチューニングの手法の一つで、モデル全体を書き換えるのではなく、一部のパラメータだけを効率的に調整します。フルのファインチューニングに比べて計算コストが大幅に抑えられるため、企業での利用が増えています。

RLHF(Reinforcement Learning from Human Feedback) — 人間のフィードバックをもとにAIの出力を改善する学習手法です。AIの回答に対して人が「良い」「悪い」と評価し、その結果を使ってモデルを調整します。ChatGPTやClaudeが自然で安全な回答を出せるようになった背景にある技術です。

転移学習(Transfer Learning) — ある分野で学習した知識を、別の分野に応用する手法です。英語で訓練したモデルの知識を日本語の課題に活かすようなケースがこれにあたります。ゼロから学習するより少ないデータ・時間で高い精度が得られます。

蒸留(Knowledge Distillation) — ベテラン社員のノウハウを新人マニュアルに落とし込む、あの作業に近い。大きなAIモデル(先生)の知識を、小さなモデル(生徒)に引き継がせて軽量化する技術です。スマートフォンやエッジ端末でAIを動かす場面で威力を発揮します。


ここからは、実際にAIを「使う側」の話になります。プロンプトの工夫からエージェントまで、現場で手を動かすときに知っておきたい用語が中心です。

運用・応用技術編

プロンプト(Prompt) — AIへの指示文。それだけなのですが、書き方ひとつで出力の質が驚くほど変わります。「要約して」より「300字以内で、結論を冒頭に置いて要約して」のほうが、当然ながら期待に近い結果が返ってきます。

プロンプトエンジニアリング(Prompt Engineering) — AIから望む回答を引き出すために、プロンプトの書き方を工夫する技術です。役割を与える、具体的な出力形式を指定する、例を示すといったテクニックがあります。ZEROCKでは「プロンプトライブラリ」機能で、社内で効果の高いプロンプトを共有・管理できます。

ハルシネーション(Hallucination / 幻覚) — AIが自信満々に嘘をつく現象。存在しない法律の引用、架空の統計データの捏造など、業務で使うと致命傷になりかねません。だからこそ、RAGで社内の事実データに基づいた回答を返す仕組みが求められるわけです。

エージェント(AI Agent) — 単に質問に答えるだけでなく、自ら計画を立て、ツールを使い、複数の手順を実行できるAIのことです。「来月の出張予定を調べて、ホテルの候補をリストアップし、予約メールの下書きを作って」といった複合的な作業を自律的にこなします。

Agentic RAG(エージェンティックRAG) — AIエージェントとRAGを組み合わせた手法です。単にデータを検索して答えるだけでなく、検索結果が不十分なら追加検索をしたり、別の情報源を探したりと、AIが自ら判断しながら最適な回答にたどり着きます。2026年に入って、MicrosoftやGoogleが相次いでAgentic RAG関連のサービスを発表しており、企業向けAIの次の主戦場になりつつあります。

ここで一つ、現場でよくある勘違いを紹介します。「RAGを入れればハルシネーションがゼロになる」と思っている方がいますが、実際はゼロにはなりません。検索した文書自体が古かったり、チャンクの切り方が悪くて文脈が途切れていたりすると、RAGでも誤った回答が出ます。大事なのは「どうやってゼロに近づけるか」の設計であり、そこにGraphRAGやリランキングの技術が効いてきます。

チェーン・オブ・ソート(Chain of Thought / CoT) — AIに段階的に考えさせる手法です。「まず条件を整理して、次に各条件を比較して、最後に結論を出して」と指示することで、複雑な問題でも正確な回答を得やすくなります。

Few-shot Learning(フューショット学習) — プロンプト内にいくつかの例を提示して、AIにパターンを理解させる方法です。「Q: りんご → A: 果物」「Q: トヨタ → A: 自動車メーカー」のように例を2〜3個見せれば、新しい質問にも同じ形式で答えてくれます。

Zero-shot Learning(ゼロショット学習) — 例を一つも見せずに、AIに初見のタスクを実行させることです。十分に訓練されたLLMは、タスクの説明だけで適切に対応できる場合があります。

API(Application Programming Interface) — ソフトウェア同士の「通訳係」。AIをビジネスシステムに組み込むとき、ほぼ必ずAPIを通じて接続します。料金もAPI経由のトークン消費量で計算されるのが一般的です。

オンプレミス(On-premises) — 自社の施設内にサーバーを設置してシステムを運用する形態です。データが社外に出ないため機密性は高いですが、導入・運用コストも高くなります。クラウド型との対比で使われる言葉です。


最後のセクションはセキュリティとガバナンスの話。「AIを入れたいけど、情報漏洩が心配」という声は、どの企業でも必ず上がります。

セキュリティ・ガバナンス編

データガバナンス(Data Governance) — 「そのデータ、AIに読ませていいの?」という問いに答えるためのルールと体制。組織内のデータを誰が管理し、どう閲覧・利用させるかを定めることです。AIに不適切なデータを読ませれば、不適切な回答が返ってくるのは当然の帰結です。

PII(Personally Identifiable Information / 個人識別情報) — 氏名、住所、電話番号など、個人を特定できる情報のことです。AIに社内文書を読み込ませるとき、PIIが含まれていないかの確認が必要になります。

プロンプトインジェクション(Prompt Injection) — AIへの「なりすまし指示」攻撃。悪意のある指示をプロンプトに紛れ込ませ、意図しない動作をさせる手法で、社外向けチャットボットでは対策が必須になります。

ガードレール(Guardrails) — AIが不適切な回答をしないよう設けるルールや制限のことです。禁止ワードの設定や、特定の話題への回答拒否などが含まれます。業務用AIでは信頼性と安全性を担保するために不可欠な仕組みです。

モデルカード(Model Card) — AIモデルの性能、想定用途、制限事項などをまとめた説明書です。どんな訓練データを使い、どの程度の精度があるのかを明示することで、利用者が適切にモデルを選べるようになります。


まとめ

エンタープライズAIの用語は増え続けていますが、すべてを一度に覚える必要はありません。まずは自分の業務に関係する領域から押さえていきましょう。

覚えておきたいポイントを整理すると、次のとおりです。

  • LLMは文章を生成するAIの基盤であり、GPTやClaudeがその代表例
  • RAGは社内データを使って正確な回答を得るための仕組みで、企業利用ではほぼ必須
  • GraphRAGは情報の関係性まで理解する次世代のRAG技術
  • ハルシネーション対策として、RAGやガードレールの整備が重要
  • ファインチューニングよりもRAGから始めるのが実務では効率的

TIMEWELLが提供するエンタープライズAI「ZEROCK」は、GraphRAGやプロンプトライブラリなど、ここで紹介した技術を実際に組み合わせて構築されています。具体的な活用イメージを知りたい方は、お気軽にお問い合わせください。

関連コラム

AI導入について相談しませんか?

元大手DX・データ戦略専門家が、貴社に最適なAI導入プランをご提案します。初回相談は無料です。

この記事が参考になったらシェア

シェア

メルマガ登録

AI活用やDXの最新情報を毎週お届けします

ご登録いただいたメールアドレスは、メルマガ配信のみに使用します。

無料診断ツール

あなたのAIリテラシー、診断してみませんか?

5分で分かるAIリテラシー診断。活用レベルからセキュリティ意識まで、7つの観点で評価します。

AIコンサルについてもっと詳しく

AIコンサルの機能や導入事例について、詳しくご紹介しています。