生成AIに「新規事業の提案のテンプレートを考えて」「新宿でおすすめのカレー屋さんを教えて」などと質問すると、あっという間に答えを出してくれます。圧倒的なスピードとスマートな答えに感心する人もいるかもしれません。
しかし、生成AIが出してきた答えは本当に正しいものなのでしょうか?ひょっとしたら、間違った内容をもっともらしく答えている可能性も否定できません。
ハルシネーション
「ハルシネーション」とは、AIが幻覚(ハルシネーション)を見ているかのように、事実とは異なることを本当であるかのように答える現象のことです。例えば、生成AIに「徳川家康とは誰のこと?」と質問すると、「徳川家康とは、昭和の高度成長期に活躍した、印刷機メーカーの社長のことです。彼は1908年に生まれ…」といった事例が挙げられます。
AIはインターネットから膨大なデータを学習し、ある単語に連なる単語を予測し、文を生成します。情報が正しいのかを判断しているわけではないので、間違った内容も出力することがあります。ハルシネーション解決のために、さまざまな試みがなされていますが、たくさんの課題があります。
ハルシネーションによるビジネスリスク
生成AIの活用が広まる中で、ハルシネーションによるビジネスリスクに注意する必要があります。企業がユーザーに提供している生成AIサービスの中で、ハルシネーションが生じ、間違った回答をユーザーにしてしまうということが想定されます。
間違った答えを前にして、ユーザーの企業に対する信頼感は低下するかもしれません。また、ユーザーが生成AIの間違った答えを信じて行動したことで損害が生じたということにもつながりかねません。例えば、生成AIの商品サポートチャットでハルシネーションが生じて、ユーザーが間違った使い方をして怪我をしたということも想定されます。
社内で生成AIを活用する場合についても、ハルシネーションによって意思決定を誤る可能性があります。契約書類の作成で重要な項目を入れ忘れる、といったことも発生するかもしれません。
ハルシネーションへの対策
生成AIの出力にハルシネーションの可能性がある以上、出力の真偽を確かめる必要があります。人が目視で確認する、フィルターによって出力結果を機械的にチェックするといったことがありうるでしょう。
生成AIへの指示の出し方を工夫することもできます。指示文のテンプレートを作成して規定に沿って答えさせる、事前に正しい情報を与えて答えさせるといったこともできます。ステップバイステップで答えさせる・「はい」か「いいえ」で答えさせる・選択肢の中から答えさせるなど、答えさせる形式は多様です。生成AIが混乱しないように誘導・質問することも大切です。
あるいは、生成AIを使うシーンを限定することを検討してもいいかもしれません。ハルシネーションが特に問題になりやすいのは、厳密な答えが求められるシーンです。例えば新商品や新企画の提案・記事の草案など、どちらかといえば厳密さよりも多様なアイデアが必要になるので、生成AIが強い領域と言えます。
最後に
生成AIは大変便利ですが、ハルシネーションという間違いをすることもあります。そして、生成AIの活用が広まるにつれて、ハルシネーションによるビジネスリスクも大きくなっていくとみられます。生成AIの活用が今後のビジネスにとって不可欠となるのであれば、ハルシネーションへの対応もより緻密でしっかりとしたものになる必要があります。
この記事へのコメントはありません。