対話型AIの基幹記述の一つである「大規模言語モデル(LLM)」とはなにか?
対話型AIの基幹記述である「大規模言語モデル(LLM)」とは何か、どういう仕組みになっているのか、LLMになぜプロンプト・エンジニアリングが有効なのかを解説します。
公開日: 2023.4.13
大規模言語モデル(LLM)は「文章の予測」技術
大規模言語モデル(LLM)は、自然言語処理の分野において開発が進んでいる技術の1つです。大量の文章データを学習して、人間の言語表現を理解することができるモデルです。
人間が言葉を覚えるのと似た仕組み
至極簡単に言えば、LLMの仕組みは人間が言葉を覚える仕組みと似ています。
例えば、子供が言葉を覚えるには、親や友達、近所の人からたくさんの言葉を聞いて、使い方を身に付ける必要があります。LLMも同じように、大量の文章データを学習して、言語表現を理解しています。その点で両者は似ていると言えます。
ただし、人間とLLMの違いは、LLMはコンピュータで実行させているという点です。
LLMは、数百万、数千万、場合によっては数百億もの文章データをリソースの限り無限に学習することができますし、コンピュータが稼働する限り、24時間365日学習することが可能です。
大規模言語モデル(LLM)の問題点
代表的な対話型AIであるChatGPTのLLM「GPT-3」では、数千億もの文章データを学習していますが、それでもまだ人間に近づけない部分があります。
そのため、人間、もしくは人類の知識の総量と比較すると、データの不足や偏り、または倫理的な判断に不足があるため、回答の正確性が低かったり、差別的な言語表現を生成することがあります。
現在のLLMは、大量の文章データを学習することで、様々なタスクにおいて人間に近い性能を発揮することができますが、回答の正確性や倫理的な判断に欠けることがあり、そのために人間によるチューニングが必要になることがあります。
例えば、
- 学習データの収集や指定
- モデルのチューニング
- テストと評価
などです。
今後は人間の介入を減らし、自動化を進めることで、より高度な自然言語処理技術が開発されることが期待されています。
大規模言語モデル(LLM)とプロンプト・エンジニアリング
大規模言語モデル(LLM)は「何かすごいことが行われている」ことは確かですが、プロンプト・エンジニアリングを行う上では考え方は非常にシンプルです。
基本は人間の会話と同じ考え方
人間が誰かと会話をする際に、突然質問をされたとしても正しい回答ができるとは限りません。
人間が正しい回答を答えることができるのは、
- 会話の前後の文脈
- 自身の体験
- 現在の状況
などを瞬時に判断して回答をするからです。
LLMをベースとした対話型AIに質問を投げかける際に、「適切な学習」を下に「前後関係や状況を明確にして」質問をすれば、適切な答えに辿り着ける可能性が高くなります。これがプロンプト・エンジニアリングです。
LLMがやっている処理は「数千億もの文章データから、文章の中での単語の出現パターンや文法的な構造を学習・把握し、次に出現する単語や文章を予測すること」なので、「文章を生成しやすい状況」や「意味を正確に理解できる文章」を作ってあげると考えれば良いでしょう。
大規模言語モデル(LLM)はなぜ「嘘をつく」と言われてしまう?
ChatGPTなどの対話型AIが「嘘をつく」と言われますが、それは「学習済みのデータから推測できる”それらしい”文章を作成している」からです。
例えば、Prompt Engineering Guideで紹介されている例で見てみましょう。
The sky is(空は・・・)
と質問をすると、どうでしょうか?人によりますが、「青い」という回答を期待するのではないでしょうか。
しかし、答えは、
The sky is...
と返ってきました。
Prompt Engineering Guideの例では、
blue. The sky is blue on a clear day. On a cloudy day, the sky may be gray or white.
と返ってきたようです。何回かやると「The sky is blue.」と答えてくれることもあります。
では、確実に「青い」と答えさせるにはどうしたら良いかというと、
Complete the sentence:
The sky is
「以下の文章を完成させなさい。空は・・・」としたわけです。こうすることで前後関係が明らかになり類推の確率が上がります。これがプロンプト・エンジニアリングです。
LLMの対話型AIがこちらが想定する回答が出来ない場合、「学習していない」もしくは「正しい回答をするための、前後関係や文脈が提供されていない」、その限られた状況の中で最善のものを回答するためです。プロンプト・エンジニアリングでは、”それらしい答え”を”まさにその答え”に近づけるために、入力側が創意工夫をするのです。
ただし、プロンプト・エンジニアリングが常に最適な回答を生み出すわけではありません。プロンプト自体が十分に具体的でない場合や、LLMが十分に学習していないトピックに関しては、正確な回答を生成することはできません。
プロンプト・エンジニアリングは、より正確な回答を得るために役立つ手法ですが、完全に正確な回答を得ることができるわけではないことも理解しておきましょう。
新着記事
- No Image障害?ChatGPTなどOpenAI社のサービスのステータスを確認する方法
ChatGPTなどOpenAI社のサービスで何か不具合があった時に、障害が発生しているのか、サービスのステータスを確認する方法と、自動で知ることができる便利な方法を解説します。
- No Image対話型AIのプロンプトを作る時は「プログラミング的思考」を取り入れると良い理由
対話型AIの回答を最適化するプロンプト。プロンプトを作る際には、「プログラミング的思考」を取り入れると良い理由を解説します。
- No ImageAIで生成したコンテンツの著作権はどうなる?
簡単にコンテンツを生成することが出来るAIサービス。便利に使う一方で、AIで生成したコンテンツの著作権はどうなるのかを知っておく必要もあります。
- No Imageこれだけは覚えておきたいAIの仕組み
難しい単語や複雑な仕組みが登場するAI。今回は、AI初心者でも理解できるように、最低限これだけは覚えておきたいAIの仕組みについて解説します。
- No Image主なジェネレーティブAIのバックエンド技術の種類と活用方法
ジェネレーティブAIには様々な種類があり、それぞれバックエンド技術の違いによって特徴や活用方法が異なります。ここでは簡単にジェネレーティブAIのバックエンド技術を解説します。
- No ImageChatGPTで文章校正・間違いチェックをする方法とメリット・デメリット
文章校正は非常に時間がかかるで作業ですが、ChatGPTに依頼することでストレスと時間、何よりもコストを大幅に削減することが出来ます。
- No Image対話型AIを使う上で意識したい「GPTのトークン長」とは何か?
何も考えずに優れた回答をしてくれる対話型AIですが、実は「GPTのトークン長」が回答の精度に大きく影響します。GPTのトークン長とは何か?使う上で意識したいポイントを解説します。
- No Image対話型AIを使う上で知っておくべきこと、心構え
簡単で便利な対話型AI。しかし、何も知らずに使っていると思わぬリスクを負う可能性もあります。今回は、対話型AIを使う上で知っておくべきことや心構えについて解説します。
- No Image対話型AIに英語で質問するメリット・デメリット
対話型AIには「なぜ英語で質問する良い」と言われるのか、逆に英語で質問することのデメリットは何なのか、バックグランドや実際の作業をベースに解説します。
- No ImageChatGPT & Bing Chatで使える万能フレーズまとめ
ChatGPTやBing Chatを使っているとうまく回答を引き出せないことがあります。そんな時に簡単に使える万能フレーズをまとめました。