ニュースによると、アビアンカ航空を訴えたクレーマーの代理人とされた弁護士、スティーブン・シュワルツ氏によって、訴訟の準備書面に偽の引用と偽の司法判断が含まれていたため、訴訟に問題が生じました
目次
弁護士が裁判で使用する判例をChatGPTに依頼して集めたところ、大量の偽物をつかまされる事態となったそうだ(The Verge の記事、The New York Times の記事、Neowin の記事、裁判所文書)。この裁判は 2019 年 8 月 27 日のエルサルバドル発ニューヨーク行きアビアンカ航空 670 便に搭乗し、機内食の配膳用カートをぶ...
【悲報】
ニューヨークの弁護士さん。
ウソの過去判例で弁護してしまい大炎上。
ChatGPTを使った事を白状してしまう。
詳しくは次で >>>
1/3— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
・判例調査のためにChatGPTを使用
— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
・裁判所の提出書類に6つの偽判例を引用
・ChatGPTに「この判例は実在する?」と確認していた
・ChatGPTは「実在する判例だ」と回答
・相手方の弁護士が「そんな判例はない」と指摘
・そこでようやく誤りに気づいた
・6月8日に公聴会を予定している
2/3
個人的に気になった点:
— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
・AIは資格がないから弁護はできない
・でも弁護士の助手ならできるはず
・AIが推薦した判例をまま載せたのは怠慢
・最後の最後は自分で調べないとダメ
・過去判例調査プラグインの需要が確認できた
3/3
【悲報2】
ChatGPTに弁護士プラグイン見つけたった。
と思ったら。
弁護士をひたすら紹介してくるだけだったorz...。— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
スポンサーリンク
スポンサーリンク
やっちゃいけないやつって注意されてるのに… twitter.com/tairo/status/1…
— 深津 貴之 / THE GUILD / note.com (@fladdict) May 29, 2023
依頼側からしたら流石に金返せとなるんでは twitter.com/tairo/status/1…
— じょにべえ (@enuswinslow) May 29, 2023
各方面でこれに類する事象が起きる事がよう出来まくる。 twitter.com/tairo/status/1…
— solatch (@solatch_etc) May 29, 2023
人のせいにすんな案件すぎる。事実関係の確認なんてChatGPTにやらせたら一番危ないし、法律関係はただでさえ学習させまくってあって幻想が一番酷い分野だぞ。自分で精査しろ。 twitter.com/tairo/status/1…
— 裏技君 (@urawazakun) May 29, 2023
なんで「ChatGPTを教科書や辞典のようなもの」として使ってしまう人は後を絶たないのか… twitter.com/tairo/status/1…
— あだな (@adana37P) May 29, 2023
怖すぎだろ笑 twitter.com/tairo/status/1…
— 久保 樹(Itsuki Kubo) (@ItsukiKubo) May 29, 2023
プログラミングでも起きる。
— 山崎大助 / プログラミング学習TV @YouTube (@daisu_yamazaki) May 29, 2023
「AIが出してきたんで、私の責任じゃありません!!☛ そのコード使ったあなたが責任とるんですよ。」ジャン!! twitter.com/tairo/status/1…
ChatGPTが正しい答えを返してくれると思ってる人の勘違いを矯正するのにめっちゃいい事例。
— takahiro1987 (@takahiro19871) May 29, 2023
ChatGPTのバージョンと法務用に学習されてたのかどうかが気になる。
bbc.com/news/world-us-… twitter.com/tairo/status/1…
スポンサーリンク
スポンサーリンク
こーいうAIの嘘にだまされるのが医学分野で起きる可能性がある
— 田舎のドンキのプーマ💙 (@sleeping__ZoNE) May 29, 2023
医療でミスすると人が死ぬ twitter.com/tairo/status/1…
偽データを撒いておくことでChatGPTに拾わせる作戦が出来そうだな。まるで釣りだ twitter.com/tairo/status/1…
— 釣りチキやすお@東京湾と荒川 (@tsurichiki) May 29, 2023
えぇ。。 twitter.com/tairo/status/1…
— カルアパ (@lawyer_alpaca) May 29, 2023
そりゃあそうだよなあ。歴史上の人物について訊いても結構間違いある。
— kikidiary (@kikidiary) May 29, 2023
こないだ、五代友厚について聞いたら衆議院議員だと回答があり、元薩摩藩士の五代友厚、と聞いたら西南戦争に参加したと回答があった。納得できる回答が出てくるのに6-7回やり取りした。 twitter.com/tairo/status/1…
ここ数日テレビでもChatGPTの使い方とかが特集されてるので、これはいい!と思った人が裏取りせずに使ってビジネスの場で恥をかく…なんてこともたくさん出てきそう。 twitter.com/tairo/status/1…
— 三浦拳|Brand new day (@kenmiura525) May 29, 2023
AIの未熟さと弁護士の未熟さを感じるいい事例かと。 twitter.com/tairo/status/1…
— 中村公哉@弁護士×VC (@kimiya_nakamura) May 29, 2023
遂にこんなことが… twitter.com/tairo/status/1…
— ゆき後輩(仙人)☕️ブログは趣味 (@cohaiblog) May 29, 2023
スポンサーリンク
スポンサーリンク
まだ専門職が AIに仕事を奪われる時代は来なそうですね。というか、この場合は、ある意味ChatGPTに仕事取られてますけど。 twitter.com/tairo/status/1…
— いわみ@フリーランス・復業 会社を辞めて家族で高知に移住 (@iwamishinji) May 29, 2023
イケナイとは思はないけど
— 【ぬるぽ】石岡隆治 ■━⊂( ・∀・) 彡ガッ☆( д) ゚ ゚ (@NHK44649051) May 29, 2023
ウラくらいとれよなぁ twitter.com/tairo/status/1…
もうそんな展開に twitter.com/tairo/status/1…
— シャカコꐕ (@sakatopv) May 29, 2023
ChatGPTに実在する?って聞いてもあかんのかw
— 山形 誠🍥💋プログラマー (@makoto_yamagata) May 29, 2023
何処までいっても人間による検証が必要、とw twitter.com/tairo/status/1…
現状GPTに知識そのものを問う時は検証出来るものにしようね... twitter.com/tairo/status/1…
— Byoki_miao (@miao_byoki) May 29, 2023
ウケるw
— Shopify Experts になりたい (@wannaShopifyExp) May 29, 2023
相手の弁護士優秀やん twitter.com/tairo/status/1…
これは怖い。ネットで検索して出てきたブログの答えを鵜呑みにするのと同じくらいヤバいですね。
— あわじ@幸福の最大化 (@AJ_saidaika) May 29, 2023
chatGPTは間違いなく便利で、今後ますます我々の生活の一部になってくると思います。けど、論文をはじめ「一次情報」で確かめないと。
しばらくは知ってることをまとめてもらうとかが良いのかもですね。 twitter.com/tairo/status/1…
想像はできていたが、本当にこんなアホが出てくるとは……chatgptが真贋判定に使えるわけないだろうに。 twitter.com/tairo/status/1…
— うーるさん (@woolsan3) May 29, 2023
スポンサーリンク
スポンサーリンク
この記事に問題があると考えた場合、こちらから作者様にご連絡をお願いします。