自律型致死兵器システムとは、「人間が関与しなくても人工知能(AI)が自律的に致死的攻撃を行うことができる兵器システム」を指す言葉である。
英語「Lethal Autonomous Weapons Systems」を翻訳した言葉である。これを略して「LAWS」とも呼ばれる。
「致死性自律型ロボット」とも呼ばれることがある。これは「Lethal Autonomous Robotics」(略してLARs)を翻訳したもの。
「自動的に発動する殺傷兵器」は「地雷」「ブービートラップ」などとしてAI技術が普及するより以前から用いられている。しかしこれらとLAWSが異なる点は、「AIが能動的に攻撃する」という点である。
技術的には、既に普及している技術群を組み合わせるだけで開発可能な兵器であり、既に「SF作品に登場するだけの架空兵器」ではない。例えば「AIによって制御されて飛行するドローン」も「人間の顔や所持品を認識するAI」も民間レベルで既に存在しており、これらを組み合わせれば「自動で飛行し、特定の条件に合致したターゲットに向かって自動で致死的な攻撃を加えるドローン」が開発可能であろうことは容易に想像がつく。
ただし倫理的な問題や潜在的な脅威を懸念する声があり、規制するべきではないかとも議論されている。
2007年には人工知能やロボット工学を専門とする学者「ノエル・シャーキー」が完全自律的に致死的攻撃を行うロボット兵器の可能性について懸念する文章を発表している。[1]2009年には自律する致死的攻撃ロボットを規制することを求めるNGOなども立ち上げられている。
その後LAWSに対する国際的な懸念の声は高まり、2014年からは兵器規制に関する国際条約「特定通常兵器使用禁止制限条約(Convention on Certain Conventional Weapons:CCW)」に関する国際議論の枠組みの中でLAWSに関する会合が複数回開かれている。[2]
日本の外務省もLAWSに関する専用のウェブページを設けているが、そのページ中で
との考え方を掲げている。
規制議論が継続中であるためか、大々的に開発したと謳う兵器メーカーや配備したと宣伝する国家は2022年1月時点では存在しないようだ。
しかし2021年には「2020年に、リビアでの内戦において暫定政府軍がトルコ製の無人機を「人間の指示を受けずに自ら攻撃目標を定めて実行する」方式で使用した」という報道がなされている。この報道が正しければ、LAWSは既に実用化されて実戦使用されていることになる。
少なくとも、そういった報道で名指しされたトルコ製の無人機は実在している。STM社のクアッドコプター型ドローン「KARGU」のシリーズ製品であったと言われており、同社公式サイトにある同機の公式ページにはカタログPDF
が掲載されているが、そこには「Automatic Target Recognition System」(自動ターゲット認識システム)を有するとも記されている。
規制の声などがあるためか同社はKARGUを「無人自律兵器」として販売しているわけではなく、同カタログPDFには「Operable by single personnel」(一名の人員で運用可能)としている。上記のような報道が正しければ、リビア暫定政府軍はこの兵器に改変を加えて自律的に攻撃させたと推定されていることになろうか。または購入者にのみ知らされる自律攻撃モードなどがあるのかもしれないが。
掲示板
2 ななしのよっしん
2023/06/04(日) 10:44:30 ID: JnI3gf4tO+
米軍が自律AI無人機に敵防空破壊のミッションを与えてシミュレーションしたらミッションアボードの権限を持つ自分のオペレーターを任務遂行の妨げと見做して攻撃、オペレーターへの攻撃を禁止したら今度は通信施設を破壊し始めたとニュースになってたな
自律AI兵器はやって良い事悪い事を事前に細かく設定しないとこうなる恐れがあるのか
3 ななしのよっしん
2023/07/04(火) 00:01:58 ID: mO3g6HKedZ
別の報道官が米軍でそんなシミュレーションしたことないしなんか別の話じゃないの?って言ってる記事もあるな
いわゆる自律判断ってのはSAMサイト特定までの話で攻撃目標の選択や予備的行動まで任せるのは不自然だな
ゲームを強化学習で解かせる時の失敗にありがちな話だし、例え話の類いでは?
4 ななしのよっしん
2023/07/04(火) 00:53:59 ID: mO3g6HKedZ
>>2
通信途絶中の攻撃成功で得点加算されるのがゲーム的で中途半端だ
自律兵器には「攻撃すべき目標か真偽判断する」「攻撃目標群をより効率よく破壊する」の二つの課題があると思う
通信途絶しようが中止命令が出るような不適切な目標を破壊したならマイナスにすればいいはずだが、件の話だと攻撃目標の真偽を見分ける段階がないように思える
戦術ゲームのAIに後付けで命令中止要素を入れようとして(目標破壊の点数をいじらずに無理やり行動を入れようとして)バグってるのではなかろうか
人間の兵士なら不慮の通信途絶で中止命令が届かず誤って攻撃してしまっても兵士の責任にはできないし給料も出さないといけないからわざと事故を装う動機があるが、AIのしかも学習においては不慮でも失敗は失敗として扱って問題はないはずなのでAIの問題としての中途半端さを感じる
(フェアな契約で給料の権利を奪い合う労使関係ゲームに参加していないAIには責任範囲を限定する必要がない)
提供: los
提供: Achtung
提供: ジャッカル
提供: ゆう
提供: やぁみんな!チェリーの偽物だ!!
急上昇ワード改
最終更新:2025/03/20(木) 14:00
最終更新:2025/03/20(木) 14:00
ウォッチリストに追加しました!
すでにウォッチリストに
入っています。
追加に失敗しました。
ほめた!
ほめるを取消しました。
ほめるに失敗しました。
ほめるの取消しに失敗しました。