転載元:http://ai.2ch.sc/test/read.cgi/newsplus/1739764017/
1:2025/02/17(月) 12:46:57.45
イギリスの公共放送機関BBCが、AIが要約したニュース記事を調査したところ、その多くに「重大な問題」が含まれていることが判明しました。
この調査結果を受けて、BBCのデボラ・ターネスニュース担当最高責任者は、「生成AIツールは火遊びをしている」と警告し、国民の「事実に対する脆弱な信頼」を損なう恐れがあると指摘しています。
高確率でAIは要約を間違える
調査では、ChatGPT、Copilot、Gemini、Perplexityに100件のニュース記事を要約するよう依頼し、それぞれの回答を評価しました。すると、AI回答の51%に何らかの重大な問題があると判断されました。さらに、BBCのコンテンツを引用したAI回答の19%に、事実の記述、数字、日付の誤りなど、事実誤認があったそう。
https://www.gizmodo.jp/2025/02/ai-is-not-good-at-summarizing-the-news.html

AI が人類を滅ぼしにかかってるんだよ
引用元が間違っている
間違ったまま放置されている
意図的にデマが書かれたサイトもある
chatGPTは、その場では謝罪するんだけど、同じ間違いを繰り返すのがなあ。
そのうち逆ギレするAI出てくるんじゃね?
copilotが嘘言ってきたから嘘つきって送ったら嘘ではありませんとか言って切られるからな
本来、間違った情報を食わせても間違った情報と判別するって触れ込みだから。
もっとも、記事の要約で間違えるってのは、それ以前の話だよ。
校正もちょっと怪しい感じになったりする
「Aは食べても死にません
BはAのように食べても死なない
ように見えますが死にます」
をAIが要約したら
「AもBも食べても死にません」
となるような精度でしかないんだから
間違いを返してくることがある
自分がよく知っていることを聞いてみてAIの実力を計ることが必要
大昔に日経BPで体感した
結局真実はいつもわからない
・【朗報】中古150万のレクサスLSに乗った結果wwwwwwwwwwwwwww...
・お前ら「令和ロマン終わったww」世間「…」 →
・【李在明共に民主党代表】「戒厳が施行されていたら大韓民国全域が血の海になって...
・【画像】石川佳純さん(31)の体、エッッッッッッッッッッッッッ!
・【超衝撃】ハンバーグ、『とんでもない事実』が判明してしまう!!!!!!
・【朗報】日本工業大学、数億円必要だった「水滴を安定浮上させる装置」を数百円で...
・【悲報】お台場の巨大噴水、汚水散布の危険があることが判明wwwwwww
・韓国人「今、韓国やばくね?求人倍率が0.28なんだけど…日本は1.2」
・【悲報】弁護士 「国内で346万人がやってるということなので、警察としても全...
・韓国人「帰ってきた投手大谷の近況をご覧ください・・・」→「笑、すでにKBOの...
・ポリコレが狂ってたと一発でわかる画像、貼られるwww
・【悲報】フワちゃんがなぜ謹慎してるのか誰もわからない件wwwwwww
・友達A「GWなにしてる?」私「シフト出てないし、まだわかんないけど言ってくれ...
・韓国人「韓国だったら炎上してた…日本人選手、韓国選手のために太極旗を広げてあ...