<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>devkuma – RAG</title>
    <link>https://www.devkuma.com/jp/tags/rag/</link>
    <image>
      <url>https://www.devkuma.com/jp/tags/rag/logo/180x180.jpg</url>
      <title>RAG</title>
      <link>https://www.devkuma.com/jp/tags/rag/</link>
    </image>
    <description>Recent content in RAG on devkuma</description>
    <generator>Hugo -- gohugo.io</generator>
    <language>jp</language>
    <managingEditor>kc@example.com (kc kim)</managingEditor>
    <webMaster>kc@example.com (kc kim)</webMaster>
    <copyright>The devkuma</copyright>
    
	  <atom:link href="https://www.devkuma.com/jp/tags/rag/index.xml" rel="self" type="application/rss+xml" />
    
    
      
        
      
    
    
    <item>
      <title>RAG（Retrieval-Augmented Generation）</title>
      <link>https://www.devkuma.com/jp/docs/ai/rag/</link>
      <pubDate>Sat, 30 Aug 2025 13:09:00 +0900</pubDate>
      <author>kc@example.com (kc kim)</author>
      <guid>https://www.devkuma.com/jp/docs/ai/rag/</guid>
      <description>
        
        
        &lt;h2 id=&#34;ragretrieval-augmented-generationの概念&#34;&gt;RAG（Retrieval-Augmented Generation）の概念&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;RAG = 検索（Retrieval）+ 生成（Generation）&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;LLM（大規模言語モデル）が自分の内部知識だけで答えを生成するのではなく、外部データベース（例: 文書、ベクトルDB、Wiki、社内資料など）から関連情報を検索し、その結果を基に回答を生成する。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;つまり、単に「モデルが知っていること」だけを使うのではなく、「必要なときに外部で調べて答える」賢いアシスタントのような概念である。&lt;/p&gt;
&lt;h2 id=&#34;なぜ必要なのか&#34;&gt;なぜ必要なのか？&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;LLMの知識限界を克服
&lt;ul&gt;
&lt;li&gt;LLMは学習時点以降の最新情報を知らない。&lt;/li&gt;
&lt;li&gt;たとえば、GPTのようなモデルは学習時点以降の最新情報を知らない。&lt;/li&gt;
&lt;li&gt;RAGを使うと、DBやWebから取得した資料を活用できる。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;幻覚（Hallucination）を減らす
&lt;ul&gt;
&lt;li&gt;LLMは知らないことを作り上げる場合がある。&lt;/li&gt;
&lt;li&gt;外部の根拠資料を活用すると、回答の信頼性を高められる。&lt;/li&gt;
&lt;li&gt;根拠のない回答ではなく、実際の文書やDBを根拠に回答できる。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;カスタム知識の活用
&lt;ul&gt;
&lt;li&gt;企業内部文書、報告書、顧客FAQ、論文、コードベースなどの&lt;strong&gt;専用データ&lt;/strong&gt;をLLMが使用できる。&lt;/li&gt;
&lt;li&gt;社内の機密文書を学習させなくても活用できる。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;ragの動作構造&#34;&gt;RAGの動作構造&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;クエリ（Query）入力
&lt;ul&gt;
&lt;li&gt;ユーザーが質問を入力する。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;検索（Retrieval）段階
&lt;ul&gt;
&lt;li&gt;質問をベクトル化（埋め込み）した後、ベクトルデータベースから関連文書を検索する。&lt;/li&gt;
&lt;li&gt;代表的なDB: Pinecone、Weaviate、Milvus、FAISSなど。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;生成（Generation）段階
&lt;ul&gt;
&lt;li&gt;LLMが検索された文書を参照して回答を生成し、一緒に伝達する。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://www.devkuma.com/docs/ai/rag.png&#34; alt=&#34;RAG&#34;&gt;&lt;/p&gt;
&lt;p&gt;つまり、&lt;strong&gt;「探して -&amp;gt; 参照して -&amp;gt; 回答する」構造&lt;/strong&gt;である。&lt;/p&gt;
&lt;h2 id=&#34;例&#34;&gt;例&lt;/h2&gt;
&lt;p&gt;たとえば、「当社の2023年売上はいくら？」という質問が入った場合:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;LLM単独: 「2023年の売上は1億ドルです。」（根拠なし、誤っている可能性あり）&lt;/li&gt;
&lt;li&gt;RAG活用: 会社内部の財務報告書を検索 -&amp;gt; 関連データを取得 -&amp;gt; 「2023年の当社売上は9,200億ウォンで、前年比8%成長しました。」（根拠のある回答）&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;比喩で理解する&#34;&gt;比喩で理解する&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;LLM単独&lt;/strong&gt;: 記憶力のよい人。ただし最新情報は知らない場合がある。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;RAG使用&lt;/strong&gt;: 記憶力のよい人が&lt;strong&gt;辞書や検索エンジン&lt;/strong&gt;を参照して回答すること。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;ragとfine-tuningの比較&#34;&gt;RAGとFine-tuningの比較&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Fine-tuning: モデル自体を追加学習し、新しい知識を「内在化」する&lt;/li&gt;
&lt;li&gt;RAG: モデルはそのままにし、外部資料を検索して活用する&lt;/li&gt;
&lt;/ul&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;方法&lt;/th&gt;
          &lt;th&gt;利点&lt;/th&gt;
          &lt;th&gt;欠点&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;Fine-tuning&lt;/td&gt;
          &lt;td&gt;応答が速く自然&lt;/td&gt;
          &lt;td&gt;データを更新するたびに再学習が必要&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;RAG&lt;/td&gt;
          &lt;td&gt;常に最新/カスタム情報を反映可能、素早く構築可能&lt;/td&gt;
          &lt;td&gt;検索品質によって回答品質が左右される&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;実務では、RAGに必要に応じて一部Fine-tuningを組み合わせて使うことが多い。&lt;/p&gt;
&lt;h2 id=&#34;rag実装に使われる技術スタック&#34;&gt;RAG実装に使われる技術スタック&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;埋め込みモデル: OpenAI Embeddings、Sentence-BERTなど&lt;/li&gt;
&lt;li&gt;ベクトルDB: Pinecone、Weaviate、Milvus、FAISS&lt;/li&gt;
&lt;li&gt;LLM: GPT、Claude、LLaMA、Geminiなど&lt;/li&gt;
&lt;li&gt;フレームワーク: LangChain、LlamaIndex、Haystack&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;まとめ&#34;&gt;まとめ&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;RAGはLLMが検索システムを併用し、信頼できる最新情報を反映した回答を生成する方式である。&lt;/li&gt;
&lt;li&gt;つまり、知識の拡張と信頼性補強のための中核技術である。&lt;/li&gt;
&lt;/ul&gt;

      </description>
      
      <category>AI</category>
      
      <category>RAG</category>
      
    </item>
    
  </channel>
</rss>
