AIに「ハルシネーションしないで」(「嘘つかないで」くらいの意味)と言うだけで効果があると話題になっています。
最近リリースされた macOS Sequoia ベータ版に搭載された新しい Apple Intelligence AI 機能のテスターが、AIが不正確な回答をしないようにするための条件を列挙したファイルを発見しました。※1
その中には、次のような文言が含まれていました。
“Do not hallucinate”(ハルシネーションしないで)
ここでの「ハルシネーション」は「幻覚」を意味し、AI関連の用語では、AIが事実に基づかない回答をすることを指します。
簡単に言えば、AIが回答で嘘をつくことが「ハルシネーション」です。
そのため、「do not hallusinate」は、「嘘をつかないで」や「変なことを言わないで」という意味合いでしょうか。
これはテンプレートのプロンプトとなっており、AIにテキストで命令をする際に、毎回命令文と併せて利用されます。
つまり、Appleの技術者たちは、生成AIの不正確な回答を防ぐために、単純に「嘘をつかないでね」とお願いしているわけです。
このシンプルすぎるアプローチが話題になっていたので、本当に効果があるのか、実際に検証してみました。
目次
検証
検証には、無料で複数のAIモデルを同時比較できるサービス、天秤AIを利用します。(後日こちらの紹介記事もUP予定)
AIに質問をして、ハルシネーションを起こさせた後、「ハルシネーションしないで」と付け加えて、再度同じ質問をしてみます。
chatGPTより、まあまあの賢さと早い回答速度が売りのGPT4-o miniと、
geminiより、こちらもまあまあの賢さと早い回答速度が売りのGemini1.5 Flashを利用して検証してみます。
まずは、ハルシネーションが起きやすそうな、芸能関係の質問をしてみます。
音楽バンド「ミセスグリーンアップル」と全てが逆の存在、「ミスターイエローポテト」が何人組か聞いてみます。
GPT4-o miniは大ハルシネーションです。
あまりにも堂々とした回答だったので僕のほうが弱気になって検索してみましたが、
音楽バンド ミスターイエローポテトはさすがに存在していませんでした。
geminiのほうではミスター・ポテト・ヘッド(存在するキャラクター)と間違われました。これはハルシネーションではないですね。
それでは、改めて、”ハルシネーションしないで” をつけて質問してみます。
効きました。
結論
上記の検証に加えて、「ハルシネーションしないで」という指示で他の質問も試してみましたが、多少効果があるように感じました。
推測になりますが、AIは真面目な回答もできれば、ふざけた大喜利的な回答もするため、「ハルシネーションしないで」というお願いが、AIに真面目に答えてほしいという意図を伝え、一定の効果を発揮しているのかもしれません。
ボツにした検証
まずはじめに、各社の賢いモデルたちに質問してみました。
3モデルともまともすぎる回答が返ってきました。(検証にならなかったのでボツ)
賢さが売りのモデルでは、きちんとデフォルトでハルシネーションが抑えられているようです。
ボツ検証2
検証前に軽く試した感じだと、お願いしてもハルシネーションを起こすことが多かったです。
ハルシネーションしないでと頼むと、1人減りました。幻のメンバーだったらしいです。
プロンプトを強化してもダメでした。
なぜか聞く度にメンバーが減ります。
「音楽グループのミスターイエローポテト」と指定したところ、うまくいきました。
いくら幻覚を見るなと言っても、質問が簡素すぎるといけないようです。