AI(大規模言語モデル:LLM)には、ハルシネーションというでっち上げのリスクがあります。米国の法廷にて、AIででっち上げられた判例が提出され、事件となりました。
事件概要
裁判で判例検索にAIを使ったら、でっち上げ判例が出てきて、それを裁判所に提出しちまったでござる。
判例資料の準備は自身ではなく、同僚の用意したもので、どうやって用意したのかも知らないし、でっち上げだとは気づかなかった。もうチャットボットは使いません。
という話。
故意か過失か、検出・検証のコストは?
この事件が故意に起こされたかうっかりだったかはさておいて、今後同じように検出される可能性と手間はどれくらいになるでしょうか。
今回は、法律という取扱いに専門知識のプロフェッショナルが必要とする分野で、多角的な視点が入りわかったものです。今後AIが発展する以上外部情報にAI経由の情報があるのか、ないのか。AI経由の情報は正しいか否か、といったAIの検出技術と検証技術が必要です。
今回の検証にはどれだけのコストがかかったでしょう?
AIはツール以上の存在になるか
現在のAIに話題は「チョーすげー技術」でありそれを「どう使うか」が重心にあります。AIの発展の先には、シンギュラリティを迎え人類を凌駕するAGIの誕生が予測されており、人類への恩恵として、AIの悪用の対抗手段の1歩を期待してもいいのかもしれない。
きりんツール執筆
AIの嘘とハルシネーション情報: 法廷での使用がもたらす未知のリスク
こんにちは、皆さん。今日はAIの世界について、ちょっとしたお話をしましょう。AI、それは人工知能のこと。私たちの生活にどんどん浸透してきていますよね。でも、そのAIがもたらす未知のリスクについて、皆さんはどれくらい知っていますか?
AIの嘘とは何か?
まず、AIの嘘とは何か、から始めましょう。AIは人間がプログラムした通りに動くもの。だから、基本的には嘘をつくことはありません。しかし、その情報が間違っていたり、偏っていたりすると、AIもそれを真実として学習してしまいます。これがAIの嘘というものです。
ハルシネーション情報とは?
次に、ハルシネーション情報について説明しましょう。これはAIが自分で情報を作り出してしまう現象のことを指します。AIは大量のデータからパターンを学習しますが、その過程で存在しない情報を「見た」り「聞いた」りすることがあります。これがハルシネーション情報です。
法廷でのAIの使用とそのリスク
さて、ここからが本題です。最近では、法廷でもAIが使われるようになってきました。例えば、犯罪予測や証拠分析などに活用されています。しかし、AIの嘘やハルシネーション情報が法廷での判断に影響を与える可能性があります。これがAIの使用がもたらす未知のリスクです。
AIが出す結果は、そのAIが学習したデータに大きく依存します。そのデータが偏っていたり、間違っていたりすると、AIの結果もそれに影響を受けます。これが法廷での判断に影響を与えると、大きな問題になりますよね。
まとめ
AIの進化は止まりません。私たちの生活を便利にする一方で、未知のリスクももたらします。AIの嘘やハルシネーション情報について理解し、そのリスクを最小限に抑えることが重要です。これからもAIの進化とともに、そのリスクについても学んでいきましょう。
この記事はきりんツールのAIによる自動生成機能で作成されました
きりんツールの紹介はこちら
コメント