AIのリスクと進化:生物兵器への危機か

2024.02.03

WorkWonders

人工知能(AI)の発展がもたらすリスクを探求するOpenAIが新たな報告書を発表しました。この中で、同社のGPT-4モデルは「生物兵器の製造を助ける可能性はわずか」と指摘していますが、未来のモデルが「悪意のある行為者」に利用される危険性を警告しています。専門家たちは、AIがテロ攻撃の計画や生物化学兵器の製造を容易にする恐れがあると指摘。
先年、Rand Corporationは大規模な言語モデルが生物攻撃の計画に利用される可能性を示す報告書を発表しましたが、具体的な生兵器の製造指示については否定しています。

技術業界内でも不安の声が上がっており、AnthropicのCEOやマーク・ザッカーバーグも議会で生物兵器に関する議論に直面しました。OpenAIの「準備」チームは、AI開発が引き起こす「壊滅的な」影響の可能性を研究するため昨年結成され、これらの懸念を調査しました。
研究者たちは、生物学の専門家や学生を集め、GPT-4へのアクセスを持たせたグループとインターネットアクセスだけのグループに分けて、生物兵器の作成に関する一連の質問に答えさせました。結果として、GPT-4を利用したグループがわずかながら精度や詳細において向上が見られたものの、リスクの増加を示すには統計的に有意ではなかったとのこと。

今回の研究は、AIモデルによる生物兵器のリスクに関する議論の起点にすぎず、今後の継続的な研究や社会的な議論が求められているとOpenAIは述べています。AIの革新の速度を考えると、将来のChatGPTが悪用される可能性も否定できないとしています。OpenAIはBusiness Insiderのコメント要請には直ちに応じていません。

出典 : https://www.businessinsider.com/openai-chatgpt-probably-wont-create-biological-weapons-threats-2024-2

【このニュース記事はAIを利用して書かれています】

著者名 :