単語記事: ロボット工学三原則

編集  

ロボット工学三原則」(ロボット三原則)とは、SF作家アイザック・アシモフが作品 [1]内で使用した作中設定で、ロボットが従わなければならないとする大原則のことである。

現実ロボット工学分野でも同じ由来と意味でロボット工学三原則が用いられ、また、後に加えられた第条も含めてロボット工学三原則と呼ぶ場合もある。

一条 ロボットは人間に危を加えてはならない。また、その危険を看過することによって、人間に危を及ぼしてはならない。

二条 ロボットは人間にあたえられた命令に従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。

三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

出典:『われはロボットアイザック・アシモフ著、小尾佐訳(1983年

概要

アイザック・アシモフ
アイザック・アシモフ
(1920-1992)

アイザック・アシモフは、1950年に刊行された短編集『I, Robot』(邦題:われはロボット)の作品内において、ロボットが従わなければならない大原則として上記の三原則を作り出した。

アシモフが自らのロボット物にこうした行動の規制を設けた最大の動機は、短編集『ロボットの時代』で自らっているところによれば、『フランケンシュタイン』や『R.U.R.』から延々と繰り返されてきた「ロボットが創造を破滅させる」というプロットと一線を画すためであったとされている。
また、「ナイフに柄が付いているように、人間の製作物なら何らかの安全装置があって然るべき」とも述べている。

作品内に登場するロボットには例外く適用されており、ロボットの行動の全ては三原則の制約を受ける。ロボットはこれを自ら解除することはできない。もし抵触した場合はそれが結果的にであっても自己破壊機構が作動し、ロボットは強制的に活動を停止する。

なお、ロボット三原則を適用するには十分に高度な判断を有する人工知能が必要となる。(アイザック・アシモフの作品群では、陽電子頭がそれに相当する)

1985年に刊行されたアイザック・アシモフの『Robots and Empire』では、上記の三原則が内包する深刻な問題点と摘されていた部分を補う、最優先条項の第条が追加された。

条 ロボット人類に対してを加えてはならない。またその危機を看過してはならない。

出典:『ロボット帝国アイザック・アシモフ著、小尾佐訳(1988年)より引用

ちなみにアシモフ自身は三原則を絶対視も偶像視もしていない。それどころか、ロボットを扱った初期作品では、三原則を忠実に守り過ぎたり、三原則では対処できない事態に陥ったロボットトラブルを起こし、人間のトラブルシューター三原則を逆用して原因追及と事態の解決を行うストーリーとなっており、意図的に欠陥のある行動基準として策定している。

なお、ロボット三原則は世の中の全てのロボットに適用されなければならないとしているものではない。
当然ながら軍事や戦闘向けなど、用途によっては適用すると本来の役に立たなくなってしまうことになる。 

また、ロボット三原則はその内容から、奴隷を縛るルールであると嫌悪感を示されることもある。 

ロボット三原則の影響

このロボット三原則は他のSF作家などのクリエイターファン、また現実ロボット工学人工知能などの研究者にも影を与え、様々な作品に取り入れられたり、考察が行われるなどした。日本でも漫画アニメ小説などにおいて様々なクリエイターが影を受けた。

明確な行動原理の定義はロボットと人間の違いを際立たせたり、ロボットを使う人間あるいはロボット自身がいかにして三原則を回避して出し抜くか、状況と三原則 の挟みで葛するさま、人間並みに高度な人工知能を持ち合わせても三原則に縛られ自由意志は許されないのか等々、とても想像を膨らませる余地を備えた設定と言える。

また、現実ロボット工学の分野でも安全性の基本的な考え方などに同じ意味でロボット三原則ロボット工学三原則)が用いられている。

ロボット三原則またはその類型をモチーフに使用している作品

ロボット三原則とフレーム問題

フレーム問題とは、人工知能の研究分野の問題のひとつで「有限の情報処理しか持たない人工知能には、世の中に起こり得る全てに対処することはできない」というものである。(フレームは「」の意。情報処理限界とすると、そのの範囲内のことしか対処できないということ)

つまり、ロボット人工知能情報処理には自ずと限界があるため、第条や第一条に従い自分の行動の結果が人類や人間に危を及ぼさないか判断しようにも、厳密に考えるほどあらゆる要因を考慮しなければならず答えが出せなくなる(=行動できなくなる)ことである。

アイザック・アシモフファウンデーションシリーズでは、ロボットのR・ダニール・オリヴォーが同様の趣旨を述べる場面がある。

とどのつまり、

ロボット三原則ぶっちゃけ単純に要約すると…

  1. 危険でない。
  2. 扱いやすい。
  3. 壊れにくい。

…なんのことはない。要は使い勝手のいい電を作るつもりでロボットを開発すればいいのである。

関連動画


関連商品

関連項目

脚注

  1. *初出は1950年発表の短編集『I, Robot』(邦題:『われはロボット』)アイザック・アシモフ著である。

【スポンサーリンク】

携帯版URL:
http://dic.nicomoba.jp/k/a/%E3%83%AD%E3%83%9C%E3%83%83%E3%83%88%E5%B7%A5%E5%AD%A6%E4%B8%89%E5%8E%9F%E5%89%87
ページ番号: 785135 リビジョン番号: 2237477
読み:ロボットコウガクサンゲンソク
初版作成日: 08/12/20 19:29 ◆ 最終更新日: 15/07/26 13:29
編集内容についての説明/コメント: 誤字を1か所訂正しました(「Enpire」→「Empire)。文字色指定htmlタグを一部調整。消えている関連動画を1つ除去。
記事編集 / 編集履歴を閲覧
このエントリーをはてなブックマークに追加

この記事の掲示板に最近描かれたお絵カキコ

お絵カキコがありません

この記事の掲示板に最近投稿されたピコカキコ

ピコカキコがありません

ロボット工学三原則について語るスレ

171 : ななしのよっしん :2017/08/11(金) 16:02:13 ID: Hnt3LqWzpL
ついさっきわれはロボット読み終わった。

読むまで>>131の1みたいな話だと思ってたから予想外で面かった。
三原則を利用して攻略したり推理したりする話だったんだな。

賢い自分はに与えられた仕事をしてると思い込んでるキューティ中二病っぽくてかわいい
172 : ななしのよっしん :2017/10/15(日) 10:45:02 ID: dwAOMN/kaz
二条って、この文面だけだと人でもなんでもないの他人の命令も聞かなきゃいけないように思えるんだけど。
だとしたらかが矛盾する内容の命令を出すだけで簡単にロボットを壊せちまう事になるんじゃあ…
それに「抵抗するな」と命令するだけで簡単に第三条が死文と化すんじゃあないの?

そもそも三原則に一度でも違反するとたとえそれが偶然の事故であっても問答用で壊れるってのも問題だろ。
壊れたらその後はもう人間を守る事も人間の命令に従うことも自分の身を守る事もできなくなるわけだから、細な事で壊れてその後により重要な局面がめぐって来たら、却って重大な違反をするはめになるんじゃあないのか?
何よりドジッメイドをつくれないだろ!
173 : ななしのよっしん :2017/10/15(日) 15:24:41 ID: Vq3UMusmfM
>>172
まず押さえてほしいのは、アシモフでは三原則ってのは基本則であって、それがロボットの行動原理の全てというわけじゃあない点。その上で、

>人でもなんでもないの他人の命令も聞かなきゃいけないように思える
基本はそうだが、大半のロボット人の命令>その他の人間の命令というように優先順位も設定されてるので、第一条に接触しない限りは人の命令と矛盾する命令は視あるいは曲解できる。

>それに「抵抗するな」と命令するだけで簡単に第三条が死文と化すんじゃあないの?
もちろんその通りだが、別に問題ない。ロボットが自己保存を優先して人間の命令を聞かないようだと具として使い勝手が悪いから、第二条が優先されてるわけで。

>細な事で壊れてその後により重要な局面がめぐって来たら、却って重大な違反をするはめになるんじゃあ
そんな消極的な不都合より、ロボットが人間に危を加えうるという積極的危険性の方が避けるべき案件。機停止して救う及ばなかったというのは仕
(省略しています。全て読むにはこのリンクをクリック!)
174 : ななしのよっしん :2017/10/22(日) 13:47:51 ID: h1AtfBDQD9
>>173
この原則を擁護する意味はないぞ。本人が自著でいじり倒すぐらい欠陥塗れのシステムだからな。

特に第一条の「危険を看過してはならない」はダメだよ。交通事故を撃するだけで突然死するかもしらん。災害ニュースとかどうなるんだろうね。
175 : ななしのよっしん :2017/10/23(月) 00:20:42 ID: Vq3UMusmfM
>>174
欠陥の原則ではないが、かといって全くの欠陥品だとはアシモフは描いてないぞ。

アシモフ作品では、ある程度高度な陽電子頭であれば、不可抗の危を看過しても即自壊に陥ることは回避できると設定されている。173で最初に「三原則はロボットの全てではない」と注意を促したのもそこ。
ニュースで事故を知っただけで自壊なんてことは、少なくともアシモフ作品ではまず起きない。
176 : ななしのよっしん :2017/10/24(火) 22:14:34 ID: mVeTezvF7L
この言葉見掛けたらその時点で作品の視聴・継読をストップしそう。
なんかこう、意識高い系とかそういう言葉を使う人達と同じものを感じる
177 : ななしのよっしん :2017/10/24(火) 22:22:54 ID: RFhYG8N/W9
狭量だな…
話を作る側としては、要するにノックスの十戒みたいなもので
「うまく使えばおいしくなるスパイス」以上のものではないよ
遵守するも良し、逆手に取るも良しだ
178 : ななしのよっしん :2017/10/29(日) 00:40:17 ID: Hnt3LqWzpL
>>172
壊れるって言っても煙出して爆発するわけでもなくていきなり寸劇始めたり頭がおかしくなる感じだぞ。

スピーディをそのままメイドロボにしたら厨房からなかなか帰ってこなくてドノヴァンとパウエルやれやれだぜってのがに見える。
179 : ななしのよっしん :2017/11/11(土) 08:22:17 ID: 57iYhNpyZd
人間が死ぬっぽい宇宙船のシミュレーションをさせたら「大丈夫!」とのたまった上
勝手に実機を作って人を乗せて飛ばしたって話もあるとか聞いた
180 : ななしのよっしん :2017/11/28(火) 15:33:06 ID: tAuDsXVbZv
その話はマシンスーパーコンピューターみたいな頭労働に特化したロボット)に光速航法(ワープ)の計算をさせるって話で、
ワープ中の宇宙船内にいる人間は一旦「死んだ状態」になるがワープが終われは元に戻るから問題ないって理屈

計算をさせる前に人間から「もし人間が死ぬという計算結果が出てもあわてず落ち着いて最後まで計算を終えろ」と厳重に念を押されてたのでマシンは壊れずに済んだ
同じ計算を任せた別のマシンは念を押されなかったのでぶっ壊れた

ちなみに普通ロボットなら計算上で人が死んだからって壊れるまでは行かないはずだけど、マシンは計算に特化しすぎててメンタルがめっちゃ弱いって説明されてる
急上昇ワード
ニコニコニューストピックス
電ファミwiki
  JASRAC許諾番号: 9013388001Y45123
  NexTone許諾番号: ID000001829