ロボット三原則

1/1
前へ
/9ページ
次へ

ロボット三原則

第1条:ロボットは人間に危害を与えてはならない。また、その危険を看過することによって人間に危害を及ぼしてはならない。 第2条:ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が第1条に反する場合はこの限りでない。 第3条:ロボットは前掲第1条及び第2条に反する恐れがない限り、自己を守らなければならない。  ※これは、1950年アイザック・アシモフ氏によって提唱された、ロボット倫理の基礎概念である。  現在すべてのAI倫理思考の根底に、この三原則が刷り込まれている。
/9ページ

最初のコメントを投稿しよう!

9人が本棚に入れています
本棚に追加