カナダのバンクーバーに拠点を置く弁護士、Chong Keが、人工知能チャットボットChatGPTを使用して法的提出物を作成した際に「架空の」裁判例を引用したとして非難されています。この問題は、裁判所で未検証の技術を使用するリスクを浮き彫りにする最新の事例となっています。
Ke弁護士は、ブリティッシュコロンビア州最高裁判所での子供の監護権に関する訴訟で、依頼人の父親が子供たちを海外旅行に連れて行きたいと考えているが、子供たちの母親との分離争議に巻き込まれているケースを担当していました。Ke弁護士は、依頼人の状況に適用可能な以前の裁判例をChatGPTに尋ね、チャットボットが生成した3つの結果のうち2つを裁判所に提出しました。
しかし、子供たちの母親を代表する弁護士は、複数の要請にもかかわらず、これらのケースの記録を見つけることができませんでした。矛盾に直面したKe弁護士は後退しました。
「これら2つのケースが誤りである可能性があるとは思いもしませんでした。同僚がこれらが見つからないと指摘した後、私自身で調査を行いましたが、問題を特定することができませんでした」とKeは裁判所へのメールで述べ、「相手方の弁護士や裁判所を誤解させる意図はなく、私が犯した過ちに心からお詫び申し上げます」と謝罪しました。
裁判所に提出された虚偽のケースを引用することは、裁判所に対する虚偽の声明を行うことに等しく、処理が行われなければ正義の誤 miscarriage が生じる可能性があります」とジャスティスDavid Masuharaは述べました。しかし、彼はKe弁護士が過ちを正すための措置を講じたと認め、「彼女が欺くか誤解させる意図があったとは認められない。裁判所と弁護士へのKe氏の謝罪の誠実さを受け入れます。裁判所での彼女の出現と口頭での提出中に、彼女の後悔は明らかに evident でした」と述べました。
Masuhara氏が特別な費用の支払いを拒否したにもかかわらず、ブリティッシュコロンビア州の法曹協会は現在、Ke弁護士の行動を調査しています。
「AIを法的サービスの提供に使用する潜在的な利点を認識しつつ、法曹協会は弁護士にAIの適切な使用に関するガイダンスを発行し、クライアントにサービスを提供する際にAIに依存する場合、有能な弁護士として期待される行動基準を遵守することを弁護士に求めています」とスポークスパーソンのChristine Tamは声明で述べました。
【ニュース解説】
カナダのバンクーバーに拠点を置く弁護士、Chong Keが、人工知能チャットボットChatGPTを利用して法的提出物を作成した際、存在しない「架空の」裁判例を引用したことで非難されています。この出来事は、法廷での未検証技術の使用に伴うリスクを示す最新の事例となりました。
このケースでは、Ke弁護士が子供の監護権に関する訴訟で、依頼人の父親が子供たちを海外旅行に連れて行きたいという状況下で、ChatGPTに過去の裁判例を問い合わせ、その結果として提示された3つのケースのうち2つを裁判所に提出しました。しかし、これらのケースは実際には存在せず、相手方の弁護士がこれを指摘した後、Ke弁護士は自身の過ちを認め、謝罪しました。
この事件は、AI技術が提供する情報の正確性に関する問題を浮き彫りにします。AIが「ホールシネーション」と呼ばれる誤りを犯すことがあり、これはAIが存在しない情報を生成することを意味します。このような誤りは、特に法的文脈で使用される場合、重大な結果を招く可能性があります。
この事件のポジティブな側面としては、AI技術の潜在的な利点とリスクに対する認識が高まり、法曹界におけるAIの適切な使用に関するガイダンスが強化される可能性があります。ブリティッシュコロンビア州の法曹協会は、AIを利用する際の行動基準についてのガイダンスを発行しており、この事件はその重要性を再確認するものです。
一方で、この事件はAI技術の使用に関する規制やガイドラインの必要性を示しています。AIが生成する情報の信頼性を確保するためには、技術の進歩に合わせて法的枠組みを更新し、AIの使用に関する明確な基準を設けることが重要です。
将来的には、AI技術のさらなる発展により、法的文書の作成や研究における効率性が向上する可能性がありますが、その過程で正確性を確保するための措置が不可欠です。この事件は、AI技術の利点を享受するためには、そのリスクを理解し、適切に管理することが重要であることを示しています。
from Canada lawyer under fire for submitting fake cases created by AI chatbot.