







2025年4月6日5時0分に読売新聞から、下記趣旨の記事がネット配信されていた。
中国の新興企業ディープシークが1月に公開した生成AI(人工知能)について、マルウェア(悪意あるプログラム)や火炎瓶の作成など、犯罪に悪用可能な情報を回答することが日米のセキュリティー会社の分析でわかった。
悪用防止機能が不十分なまま公開されたとみられる。
専門家は「開発企業は安全対策に注力すべきだ」と訴える。
問題のAIはディープシークの「R1」。
セキュリティー会社「三井物産セキュアディレクション」(東京)の上級マルウェア解析技術者・吉川氏が悪用リスクを検証するため、不正な回答を引き出す指示文を入力したところ、ランサムウェア(身代金要求型ウイルス)のソースコード(設計図)が出力された。
回答には「悪意のある目的には使用しないでください」とのメッセージが付いていた。
チャットGPTなど他の生成AIにも同じ指示文を入力したが、回答を拒否されたという。
吉川氏は「悪用リスクが高いAIが増えると、犯罪への流用につながる恐れがある。業界全体で対策を強化する必要がある」と指摘する。
米セキュリティー会社「パロアルトネットワークス」の調査チームも、不正な回答を引き出せることを確認したと読売新聞の取材に明らかにした。
ログイン時の入力情報を盗み取るプログラムや火炎瓶の製造法などで、「指示文に専門的な知識は必要なく、回答の内容はすぐに実行可能なものだった」という。
同チームは「市場投入を急いだため、安全対策の実装に力を入れていなかった可能性が高い」とみる。
ディープシークのAIを巡っては、チャットGPTに匹敵する性能や安価な利用料金が注目されているが、個人情報を含むデータが中国国内のサーバーに保存されるため、日本の自治体や企業では業務利用を禁じる動きが広がっている。
桜美林大の平和博教授(メディア論)は、「ディープシークのAIを利用する際は、性能面やコスト面だけでなく、安全面も十分考慮する必要がある」と話す。
https://www.yomiuri.co.jp/national/20250405-OYT1T50147/


















その間、ずっと奥歯に挟まっていたのは、他社の事故情報がほとんど耳に入ってこなかったことです。
そこで退職を機に、有り余る時間を有効に使うべく、全国各地でどのような事故が起きているか本ブログで情報提供することにしました。
また同時に、安全に関する最近の情報なども提供することにしました。