自律型致死兵器システム単語

ジリツガタチシヘイキシステム
1.8千文字の記事
  • 1
  • 0pt
掲示板へ

自律型致死兵器システムとは、「人間が関与しなくても人工知能AI)が自的に致死的攻撃を行うことができる兵器システム」をす言葉である。

概要

英語Lethal Autonomous Weapons Systems」を翻訳した言葉である。これを略して「LAWS」とも呼ばれる。

致死性自律型ロボット」とも呼ばれることがある。これは「Lethal Autonomous Robotics」(略してLARs)を翻訳したもの。

「自動的に発動する殺傷兵器」は「地雷」「ブービートラップ」などとしてAI技術が普及するより以前から用いられている。しかしこれらとLAWSが異なる点は、「AI動的に攻撃する」という点である。

技術的には、既に普及している技術群を組み合わせるだけで開発兵器であり、既に「SF作品に登場するだけの架兵器」ではない。例えば「AIによって制御されて飛行するドローン」も「人間の顔や所持品を認識するAI」も民間レベルで既に存在しており、これらを組み合わせれば「自動で飛行し、特定の条件に合致したターゲットに向かって自動で致死的な攻撃を加えるドローン」が開発であろうことは容易に想像がつく。

ただし倫理的な問題や潜在的な脅威を懸念するがあり、規制するべきではないかとも議論されている。

2007年には人工知能ロボット工学を専門とする学者「ノエル・シャーキー」が全自的に致死的攻撃を行うロボット兵器の可性について懸念する文章を発表している。[1]2009年には自する致死的攻撃ロボット規制することをめるNGOなども立ち上げられている。

その後LAWSに対する際的な懸念のは高まり、2014年からは兵器規制に関する際条約「特定通常兵器使用禁止制限条約(Convention on Certain Conventional WeaponsCCW)」に関する議論組みの中でLAWSに関する会合が複数回開かれている。[2]

日本外務省LAWSに関する専用のウェブページexitを設けているが、そのページ中で

  • は、人間の関与が及ばない全自の致死性兵器開発を行う意図はなく、また、当然のことながら国際法内法により使用が認められない装備品の研究開発を行うことはありません。
  • 一方で、自性を有する兵器システムは、ヒューマンエラーの減少、省力化・省人化といった安全保障上の意義を有することから、今後も、を含め、広く社会において共通の認識が得られるよう、自身の安全保障の観点も考慮しつつ、引き続き、際的なルール作りに積極的かつ建設的に参加していく考えです。

との考え方を掲げている。

実戦使用例?

規制議論継続中であるためか、大々的に開発したと謳う兵器メーカーや配備したと宣伝する国家2022年1月時点では存在しないようだ。

しかし2021年には「2020年に、リビアでの内戦において暫定政府軍がトルコ製の無人機を「人間示を受けずに自ら攻撃標を定めて実行する」方式で使用した」という報道がなされている。この報道が正しければ、LAWSは既に実用化されて実戦使用されていることになる。

少なくとも、そういった報道で名しされたトルコ製の無人機実在している。STM社のクアッドコプタードローンKARGU」のシリーズ製品であったと言われており、同社公式サイトにある同機の公式ページexitにはカタログPDFexitが掲載されているが、そこには「Automatic Target Recognition System」(自動ターゲット認識システム)を有するとも記されている。

規制などがあるためか同社はKARGUを「人自兵器」として販売しているわけではなく、同カタロPDFには「Operable by single personnel」(一名の人員で運用可)としている。上記のような報道が正しければ、リビア暫定政府軍はこの兵器に改変を加えて自的に攻撃させたと推定されていることになろうか。または購入者にのみ知らされる自攻撃モードなどがあるのかもしれないが。

関連リンク

関連項目

脚注

  1. *Robot wars are a reality | Noel Sharkey | The Guardianexit
  2. *特定通常兵器使用禁止制限条約(CCW)|外務省exit

【スポンサーリンク】

  • 1
  • 0pt
記事編集 編集履歴を閲覧

この記事の掲示板に最近描かれたお絵カキコ

お絵カキコがありません

この記事の掲示板に最近投稿されたピコカキコ

ピコカキコがありません

自律型致死兵器システム

1 ななしのよっしん
2022/11/30(水) 11:33:43 ID: mO3g6HKedZ
地雷との違いは、地雷は設置した以上暴発する可性があると捉えられる事だろう
万一暴発したら攻撃非対者の立ち入り禁止区域を設定できていたかの問題にできる
兵器の場合、攻撃非対者を自動加範囲に入れる必要がある(でなければ意味がない)攻撃対者しかいないなら差別兵器で良い

人間操作の兵器誤射を起こした場合は操作者の判断の可否と責任を問う事ができるし、判断が着かない間はその個人を現場に出さなければ取り敢えずその期間で同じ問題は発生しない
兵器製品の場合が個別のあるいは最終の責任を負うのか?自兵器の判断力に疑義が生じた場合同一製品のどこまで運用停止を及ぼすべきかがまだはっきりしないのだろう
👍
高評価
0
👎
低評価
0
2 ななしのよっしん
2023/06/04(日) 10:44:30 ID: JnI3gf4tO+
米軍が自AI無人機に敵防破壊のミッションを与えてシミュレーションしたらミッションボードの権限を持つ自分のオペレーターを任務遂行の妨げと見做して攻撃、オペレーターへの攻撃を禁止したら今度は通信施設を破壊し始めたとニュースになってたな
AI兵器はやって良い事悪い事を事前に細かく設定しないとこうなる恐れがあるのか
👍
高評価
0
👎
低評価
0
3 ななしのよっしん
2023/07/04(火) 00:01:58 ID: mO3g6HKedZ
別の報道官が米軍でそんなシミュレーションしたことないしなんか別の話じゃないの?って言ってる記事もあるな
いわゆる自判断ってのはSAMサイト特定までの話で攻撃標の選択や予備的行動まで任せるのは不自然だな
ゲームを強化学習で解かせる時の失敗にありがちな話だし、例え話の類いでは?
👍
高評価
0
👎
低評価
0
4 ななしのよっしん
2023/07/04(火) 00:53:59 ID: mO3g6HKedZ
>>2
通信途絶中の攻撃成功で得点加算されるのがゲーム的で中途半端だ
兵器には「攻撃すべき標か偽判断する」「攻撃標群をより効率よく破壊する」の二つの課題があると思う
通信途絶しようが中止命が出るような不適切な標を破壊したならマイナスにすればいいはずだが、件の話だと攻撃標の偽を見分ける段階がないように思える
戦術ゲームAIに後付けで命中止要素を入れようとして(標破壊の点数をいじらずに理やり行動を入れようとして)バグってるのではなかろうか

人間兵士なら不慮の通信途絶で中止命が届かず誤って攻撃してしまっても兵士責任にはできないし給料も出さないといけないからわざと事故を装う動機があるが、AIのしかも学習においては不慮でも失敗は失敗として扱って問題はないはずなのでAIの問題としての中途半端さを感じる
(フェアな契約で給料の権利を奪い合う労使関係ゲームに参加していないAIには責任範囲を限定する必要がない)
👍
高評価
2
👎
低評価
0