ニュースによると、アビアンカ航空を訴えたクレーマーの代理人とされた弁護士、スティーブン・シュワルツ氏によって、訴訟の準備書面に偽の引用と偽の司法判断が含まれていたため、訴訟に問題が生じました
目次
弁護士が裁判で使用する判例をChatGPTに依頼して集めたところ、大量の偽物をつかまされる事態となったそうだ(The Verge の記事、The New York Times の記事、Neowin の記事、裁判所文書)。この裁判は 2019 年 8 月 27 日のエルサルバドル発ニューヨーク行きアビアンカ航空 670 便に搭乗し、機内食の配膳用カートをぶ...
【悲報】
— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
ニューヨークの弁護士さん。
ウソの過去判例で弁護してしまい大炎上。
ChatGPTを使った事を白状してしまう。
詳しくは次で >>>
1/3 https://t.co/xfv1iwM4Hh
・判例調査のためにChatGPTを使用
— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
・裁判所の提出書類に6つの偽判例を引用
・ChatGPTに「この判例は実在する?」と確認していた
・ChatGPTは「実在する判例だ」と回答
・相手方の弁護士が「そんな判例はない」と指摘
・そこでようやく誤りに気づいた
・6月8日に公聴会を予定している
2/3
個人的に気になった点:
— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
・AIは資格がないから弁護はできない
・でも弁護士の助手ならできるはず
・AIが推薦した判例をまま載せたのは怠慢
・最後の最後は自分で調べないとダメ
・過去判例調査プラグインの需要が確認できた
3/3
【悲報2】
— 森山大朗(たいろー) Work in Tech! (@tairo) May 29, 2023
ChatGPTに弁護士プラグイン見つけたった。
と思ったら。
弁護士をひたすら紹介してくるだけだったorz...。 https://t.co/vtB70Lrmvv
スポンサーリンク
スポンサーリンク
やっちゃいけないやつって注意されてるのに… twitter.com/tairo/status/1…
— 深津 貴之 / THE GUILD / note.com (@fladdict) May 29, 2023
依頼側からしたら流石に金返せとなるんでは twitter.com/tairo/status/1…
— じょにべえ (@enuswinslow) May 29, 2023
各方面でこれに類する事象が起きる事がよう出来まくる。 twitter.com/tairo/status/1…
— solatch (@solatch_etc) May 29, 2023
人のせいにすんな案件すぎる。事実関係の確認なんてChatGPTにやらせたら一番危ないし、法律関係はただでさえ学習させまくってあって幻想が一番酷い分野だぞ。自分で精査しろ。 twitter.com/tairo/status/1…
— 裏技君 (@urawazakun) May 29, 2023
なんで「ChatGPTを教科書や辞典のようなもの」として使ってしまう人は後を絶たないのか… twitter.com/tairo/status/1…
— あだな (@adana37P) May 29, 2023
怖すぎだろ笑 twitter.com/tairo/status/1…
— 久保 樹(Itsuki Kubo) (@ItsukiKubo) May 29, 2023
プログラミングでも起きる。
— 山崎大助 / プログラミング学習TV @YouTube (@daisu_yamazaki) May 29, 2023
「AIが出してきたんで、私の責任じゃありません!!☛ そのコード使ったあなたが責任とるんですよ。」ジャン!! twitter.com/tairo/status/1…
ChatGPTが正しい答えを返してくれると思ってる人の勘違いを矯正するのにめっちゃいい事例。
— takahiro1987 (@takahiro19871) May 29, 2023
ChatGPTのバージョンと法務用に学習されてたのかどうかが気になる。
bbc.com/news/world-us-… twitter.com/tairo/status/1…
スポンサーリンク
スポンサーリンク
こーいうAIの嘘にだまされるのが医学分野で起きる可能性がある
— 田舎のドンキのプーマ💙 (@sleeping__ZoNE) May 29, 2023
医療でミスすると人が死ぬ twitter.com/tairo/status/1…
偽データを撒いておくことでChatGPTに拾わせる作戦が出来そうだな。まるで釣りだ twitter.com/tairo/status/1…
— 釣りチキやすお@東京湾と荒川 (@tsurichiki) May 29, 2023
えぇ。。 twitter.com/tairo/status/1…
— カルアパ (@lawyer_alpaca) May 29, 2023
そりゃあそうだよなあ。歴史上の人物について訊いても結構間違いある。
— kikidiary (@kikidiary) May 29, 2023
こないだ、五代友厚について聞いたら衆議院議員だと回答があり、元薩摩藩士の五代友厚、と聞いたら西南戦争に参加したと回答があった。納得できる回答が出てくるのに6-7回やり取りした。 twitter.com/tairo/status/1…
ここ数日テレビでもChatGPTの使い方とかが特集されてるので、これはいい!と思った人が裏取りせずに使ってビジネスの場で恥をかく…なんてこともたくさん出てきそう。 twitter.com/tairo/status/1…
— 三浦拳|Brand new day (@kenmiura525) May 29, 2023
AIの未熟さと弁護士の未熟さを感じるいい事例かと。 twitter.com/tairo/status/1…
— 中村公哉@弁護士×VC (@kimiya_nakamura) May 29, 2023
遂にこんなことが… twitter.com/tairo/status/1…
— ゆき後輩(仙人)☕️ブログは趣味 (@cohaiblog) May 29, 2023
スポンサーリンク
スポンサーリンク
まだ専門職が AIに仕事を奪われる時代は来なそうですね。というか、この場合は、ある意味ChatGPTに仕事取られてますけど。 twitter.com/tairo/status/1…
— いわみ@フリーランス・復業 会社を辞めて家族で高知に移住 (@iwamishinji) May 29, 2023
イケナイとは思はないけど
— 【ぬるぽ】石岡隆治 ■━⊂( ・∀・) 彡ガッ☆( д) ゚ ゚ (@NHK44649051) May 29, 2023
ウラくらいとれよなぁ twitter.com/tairo/status/1…
もうそんな展開に twitter.com/tairo/status/1…
— シャカコꐕ (@sakatopv) May 29, 2023
ChatGPTに実在する?って聞いてもあかんのかw
— 山形 誠🍥💋プログラマー (@makoto_yamagata) May 29, 2023
何処までいっても人間による検証が必要、とw twitter.com/tairo/status/1…
現状GPTに知識そのものを問う時は検証出来るものにしようね... twitter.com/tairo/status/1…
— Byoki_miao (@miao_byoki) May 29, 2023
ウケるw
— Shopify Experts になりたい (@wannaShopifyExp) May 29, 2023
相手の弁護士優秀やん twitter.com/tairo/status/1…
これは怖い。ネットで検索して出てきたブログの答えを鵜呑みにするのと同じくらいヤバいですね。
— あわじ@幸福の最大化 (@AJ_saidaika) May 29, 2023
chatGPTは間違いなく便利で、今後ますます我々の生活の一部になってくると思います。けど、論文をはじめ「一次情報」で確かめないと。
しばらくは知ってることをまとめてもらうとかが良いのかもですね。 twitter.com/tairo/status/1…
想像はできていたが、本当にこんなアホが出てくるとは……chatgptが真贋判定に使えるわけないだろうに。 twitter.com/tairo/status/1…
— うーるさん (@woolsan3) May 29, 2023
裏取りくらいしなさいよ的な。 twitter.com/tairo/status/1…
— 弁護士 芝原章吾 ◆芝原総合法律事務所@鹿児島・谷山 (@slo_kagoshima) May 29, 2023
スポンサーリンク
スポンサーリンク
絶対起こると思ってたけど、意外と早かった twitter.com/tairo/status/1…
— イシダアキユキ (@ishi912) May 29, 2023
案の定。どんなに忙しくても、ツールの盲信はダメ。
— 照山 浩由 (@hiroteruyama) May 29, 2023
人は間違う。
ツールも間違う。
間違わないことを求めるより、間違うことを前提にした社内の仕組み作りの方が、現実的で有用かなと🤔 twitter.com/tairo/status/1…
この流れは抗えないなー twitter.com/tairo/status/1…
— おはる♂ (@oharunoheya0186) May 29, 2023
これはまさに影響を受けた職業😇 twitter.com/tairo/status/1…
— とよしま (@toyoshim) May 29, 2023
めっちゃ笑った笑
— ひなやん@せいかつ上下巻 (@HinayanIrielife) May 29, 2023
ウソの判例が転がってるのにビックリ😳
まぁなんとでも作れるな。
なんの事案なんだろ🤔 twitter.com/tairo/status/1…
使い方が100悪いw有資格者の誇りとかないんか twitter.com/tairo/status/1…
— takahiro (@tkhr_1412) May 29, 2023
そうなったな、という感じで結局最終的な確認やダブルチェックは人間がやらないといけない twitter.com/tairo/status/1…
— yu-ya (@yuya1000) May 29, 2023
ほら、でた。
— mira@個人開発挑戦中 (@mira_engineer) May 29, 2023
ChatGPTに対して本当かどうかの確認なんてたいして意味がない気がする twitter.com/tairo/status/1…
ChatGPTは堂々と虚偽の回答(存在しないお店をオススメとして提案する等)をすることがあるのでその真否を確かめる必要があります twitter.com/tairo/status/1…
— 弁護士かとう◆YouTube1.8万人 (@999kt999) May 29, 2023
論文調査をするときにChatGPTが使えないか試したことがあったけど、「実在しないけどさもありそうな」論文タイトル挙げてた。
— Hoheto (@i_love_profit) May 29, 2023
これ系は極力注意したほうがよさそう twitter.com/tairo/status/1…
スポンサーリンク
スポンサーリンク
こ れ は ひ ど い twitter.com/tairo/status/1…
— Keisuke Fujimoto (@peisuke) May 29, 2023
ChatGPTに法律を尋ねたらしつこいほど法の専門家に聞いて下さいって言うのでしばらく弁護士の職は無くならないな twitter.com/tairo/status/1…
— ツバサ天九@AI男の娘生成おじさん (@wing_sky_nine) May 29, 2023
何で使ったんや、と思ったら最近司法業界でAI導入しまくってるのか
— AtTak (@AtTak91023036) May 29, 2023
でもChatGPTは判例を出すのに使うのは合ってるんかな
少なくとも4以降で判例学習させたものでないとキツそうだけど…
というか専用の作った方が良いのでは? twitter.com/tairo/status/1…
何やってんだよ... twitter.com/tairo/status/1…
— ︎ mørøkøshi (@mo654_hige) May 29, 2023
ChatGPTは「やらかす」とあれほど…… twitter.com/tairo/status/1…
— さだこーじ 5/5コミティア あ20a (@SadaKoji) May 29, 2023
これは酷い。
— jax (@Jax0420ra) May 29, 2023
ChatGPTの回答って普通に嘘が混ざるし、聞き方によっては嘘しか言わない。
AIと持て囃して、そこを理解していない人が多すぎる。
ChatGPTはあくまで自然な会話をするAIであって、会話の中身の正確性は考慮されてない。 twitter.com/tairo/status/1…
【ゆるぼ】炎上した弁護士を弁護するカスタムロジック
— Yoshida (@T5nLv) May 29, 2023
#gpt #python #yaml twitter.com/tairo/status/1…
情報が正しいか…スクリーニングは最後、人間になるという良い事例 twitter.com/tairo/status/1…
— カエルの王さま (@HX6yxglOVnKpF0s) May 29, 2023
スポンサーリンク
スポンサーリンク
この記事に問題があると考えた場合、こちらから作者様にご連絡をお願いします。