ChatGPTが作った架空判例で罰金!生成AI“責任不在”リスクの回避法

ChatGPTが作った架空判例で罰金!生成AI“責任不在”リスクの回避法

※2024年6月18日配信メルマガVol.285より抜粋(一部加筆修正あり)

生成AIはビジネスマンのスタンダードスキル

あなたは生成AIを活用されていますでしょうか?

ビジネスにおけるChatGPTなどの生成AIの活用は、
もはや今後のスタンダードなスキルになりそうな雰囲気すらありますよね。

ただ、ビジネスにおける生成AIの活用には、
看過できない問題があります。

なんだと思いますか?

裁判で、ChatGPTが架空の判例をでっち上げ

以前、ニューヨーク州の弁護士が、
自身が担当する民事訴訟の書類の中で、
いくつかの裁判例を引用して主張を行いました。

しかし、同州連邦裁判所の裁判官が調べたところ、
資料で引用された6件の裁判例が見当たらないのです。

そこで確認したところ、
弁護士はChatGPTを使って裁判例を引用していたことが発覚。
実はその裁判例、ChatGPTがでっち上げて作り出した、
架空の事例
だったのです。

結果、その弁護士には罰金が課されることになりました。
クライアントからの信用も失ったことでしょう。
架空の判例を引用する出来事は、カナダのバンクーバーなどでも同様に起こっています。

生成AIは無責任。責任はユーザーにあり

ここで、看過できない問題というのは、
生成AIが誤った情報を生成する、ということではありません。
誤った情報に気づいたら修正すればいいのです。

そうではなくて、
生成AIは責任を取らない
責任を取るのは使った人
ということです。

もし先の事例の弁護士が、
書類作成は自分に責任がある
と自覚していたら、
ChatGPTが出してきたこの裁判例は、本当に存在する事例なのかな?
と一次情報をチェックしていたはずですよね。

それなのに、ノーチェックで裁判所に提出してしまったということは、
「一発で判例を出してくれて便利だな」
ぐらいにしか思っていなかったのでしょう。

法廷の場だったため「罰金」という重いペナルティがありましたが、
一般の会社間の取引でも、
信用を失い、取引を失うことは普通にあり得ます。

ビジネスにおいて生成AIを使うことは、
便利だし、これからさらに必要になってきますが、
最終的には使う自分(自社)に責任があるんだ」
という意識を忘れず、一次情報にあたるようにしたいですね。

【サムライツ(R)】公式メルマガ


メールアドレス  *