ロボット工学の三原則は、イザック・アシモフ(Isaac Asimov)によって提案された倫理的な指針です。これらの原則は、アシモフのSF作品における人工知能ロボットの振る舞いに関する基本的なルールとして広く知られています。以下がロボット工学の三原則です。
第一法則(A robot may not injure a human being, or through inaction, allow a human being to come to harm.):
ロボットは、人間を傷つけてはならず、また自身の行動や不行動によって人間が危害を被ることを許してはなりません。この原則は、人間の安全と保護を最優先することを示しています。
第二法則(A robot must obey the orders given it by human beings, except where such orders would conflict with the First Law.):
ロボットは、第一法則に反しない限り、人間から与えられた命令に従わなければなりません。人間の指示に従うことで、人間との協調や便益を促進することが求められます。
第三法則(A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.):
ロボットは、第一法則や第二法則に反しない限り、自己の存在を保護しなければなりません。自己保存の原則は、ロボットが自己破壊することや不必要な危険にさらすことを避けるために設けられています。
これらの三原則は、アシモフの作品を通じて倫理的な問題や人工知能の社会的な影響を探求する一環として提案されました。これにより、ロボットや人工知能システムの設計者や開発者に対して、人間の安全と利益を最優先に考える責任が求められることを示唆しています。ただし、アシモフ自身も作品中で、これらの法則が複雑な倫理的ジレンマを引き起こす場合があることを示唆しており、倫理的な問題に対する単純な解決策ではないことも認識されています。