
Read Time:15 Second
興味深い記事がありましたので一部共有しておきます。
米ネバダ州ラスベガスで1日に発生した電気自動車(EV)大手テスラの「サイバートラック」が爆発した事件で、ラスベガス市警は7日、車内で遺体で見つかった米陸軍特殊部隊員のマシュー・リベルスバーガー容疑者(37)が対話型AIサービス「チャットGPT」を使い爆発を計画していたと発表しました。
「合法的に購入できる火薬の上限量は?」「至近距離で撃つにはどうすればいいか?
米陸軍特殊部隊「グリーンベレー」に所属していた男が教えを乞うた相手は、対話型AIの「Chat GPT」。男は2025年1月、米西部ラスベガスのホテル入り口前で自爆テロを実行。自動車を爆発させ通行人ら7人が負傷した。現地警察の捜査で、生成AIを悪用し計画を練った形跡が見つかったといいます。
https://www.nikkei.com/article/DGXZQOUE18APR0Y5A210C2000000
とある教授と先日議論した際、対話型AIを活用するには使用者のプロンプト作成能力、議論を進めていくための質問する力が必要だと言っていました。本件被疑者の場合、経歴上質問するための前提知識が豊富かつ精緻ですのでAIとの対話による犯行計画の作成は相当な脅威になると思われます。
また、日本では生成AIを悪用して作成したプログラムで携帯大手「楽天モバイル」のシステムに不正ログインし、通信回線を契約したとして中高生3人が逮捕された事件で、3人が不正に入手した約22万件のIDとパスワードでログインした形跡があったといいます。3人がSNSで購入したIDなどは、約33億件に上ることも新たに判明し、警視庁はさらに詳しい経緯を調べているということです。
金融犯罪などではこの手の犯罪はありましたが襲撃でも生成AIが活用する時代が訪れました。さらなる規制も検討する必要があるかもしれませんね。
