(英エコノミスト誌 2012年6月2日号) ロボットの自律性が増す中、社会にはロボット管理のルールづくりが求められている。 SF映画の名作「2001年宇宙の旅」の中で、宇宙船の人工知能HALは、あるジレンマに直面する。HALに与えられた命令は、宇宙船のミッション(木星近くの人工物の探査)を遂行すると同時に、そのミッションの真の目的を宇宙船の乗員から隠しておくことだった。この2つの命令の矛盾を解消するために、HALは乗員を殺そうとする。 ロボットの自律性が増すにつれ、コンピューター制御された機械が倫理的な判... > このページを見る
最終更新時間:
2012年06月04日01時48分
みんなのブックマーク 人気(3) 新着
- ロボットの判断に責任を持つのは誰か。基本的には仕様認可者ということになるのかな。
- 自動車が毎年大量の事故死を出すにも関わらず普及してるから、100%安全でなくてもそれを超える利便性があれば普及するんだろうな。ニューラルネットは禁止というよりAIから出た判断を最終検証するロジックが必要か
- えー、あらかじめ決められたルールではなく学習して自分で判断するタイプのAIの開発が禁止とかなったら即座に死ぬレベルなんだが。生まれる前に殺された人工知能に『殉死』する。
- 近々実現するであろう程度の低レベルの自律機械でも倫理的な考慮(や法整備)が必要ではないかという指摘。意外だったが妥当に見える。考えてみれば法整備が遅れると自律機械の民生利用は進まないだろう。これは重要
- ロボットの判断に誰が責任を負うか明確にすべきという主張。 学習型人工知能のもつ発展性と危険性を問うたホーガン『未来の二つの顔』は今目の前だ(あれは責任を問わず、対処できるかにとどまったが)
- SFだなぁ。
- "責任を負うのは、設計者かプログラマーか製造者か操作者かを明確に"いやいや、そこは少なくとも「仕様」にOKを出した人、プロジェクトの責任者以上の人間に問うべきだろう。
- 無人攻撃機はロボットが判断しているわけではないが、いずれこの手の技術が発達すればターミネーターが生まれないとは限らないな。アシモフ…いや人類涙目。
- 要するに自律ロボットを使ってスカートをめくった時の責任の所在やメイドロボを脱がせて良いのかどうかを皆で考えようということかな。
- 人が何が倫理か定めなくてはならないが、その人間が倫理を規定出来てない状況をどうするか?自動判断装置であるロボットも道具であるので人の思想の現れである。それをどう言う道具にするかは人の判断である。
- ”この点は、システム設計に影響を与える。例えば、あらかじめ決められたルールに従うのではなく、実例から学ぶ意思決定システムである人工ニューラルネットワークの使用は禁止になるかもしれない”
- #Economist に限らず、毛唐はすぐアシモフの猿真似に走るから…。 / ここで言う倫理なんてものは、実装の過程で単なる条件分岐のパラメータに分解される要求定義に過ぎない。完全な自律にはまだ長い道のりがあるんだよ。
- 結局トリアージの基準みたいなのはこれなんだろうね。しかしそれはロボットを倫理的にするのに人を非倫理的にする。なぜか。
- このあたりで日本が世界に先駆けて画期的なドクトリンでも打ち立てりゃ面白いが、現状の技術と法との乖離みたいなもんを考えるに無理くさい。
- 自立ロボットを活用するためには、責任所在の明確化、ロボットの判断を人間と同じになるようにする、エンジニアと倫理学者と法律家と政治家の協調が必要だ、という論。ごもっともだが、そううまくいくかな?
- 例えば無人攻撃機は、倫理を機械側にアウトソースした方が嗜虐性を抑制出来そうだが、私人間での利害が絡むような場面では人間の倫理を援用出来た方が良さげとか、一律原則するのが難しくはないかな、とも。
- ロボットに求められる倫理的判断 - ビジネス - Crowsnest
- ふーむ
- 読んでる:ロボットに求められる倫理的判断
- アシモフ / ロボット