ご意見 自動運転車に倫理を教えることのジレンマ| ダグ・ニューコーム

自動運転車に倫理を教えることのジレンマ| ダグ・ニューコーム

ビデオ: Диакритические знаки во французском. Accent aigu, accent grave, accent circonflexe. Видеоурок 1. (10月 2024)

ビデオ: Диакритические знаки во французском. Accent aigu, accent grave, accent circonflexe. Видеоурок 1. (10月 2024)
Anonim

先週、Googleの自動運転車に長時間乗る必要はありませんでした。このテクノロジーは道路に対応するだけでなく、場合によっては人間のドライバーよりも良い判断を下すこともあります。

しかし、街路に沿って忍び寄るだけでなく、自律的な技術は、経験豊富な人間のドライバーにとって第二の性質であるような重要な決定を行わなければなりません。 そして、トリッキーな運転状況と同じくらい倫理的なジレンマを交渉する必要があるかもしれません。

一例として、自動運転技術は、「トロリー問題」として知られる世紀の哲学的ジレンマに新たなひねりを加えます。 このシナリオでは、人はY交差点でレバーを引いて、トラックに縛られている1人を運転するかどうかを決定して、隣接するトラックに縛られている5人を救う必要があります。

自動運転車の場合、これは「トンネルの問題」として作り直されました。 自動運転車が1車線の山道を走行していて、トンネルに入る前に、子供が不注意で入口のすぐ内側の道を横断して、車が一瞬の判断をしなければならないことを想像してください。 それはまっすぐに続き、子供に当たりますか? それとも、それは曲がってトンネルにぶつかり、車の乗員を傷つけたり殺したりしますか?

カリフォルニア州マウンテンビューにあるGoogleの自動運転車に乗った翌日、近くのサニーベールにあるメルセデスベンツの北米R&D施設でのイベントに参加しました。 1日を通して取り上げられたいくつかのトピックの中で、スタンフォード大学の教授であり、大学のRevsプログラムの責任者であるChris Gerdesが、倫理と自動運転車のテーマを掘り下げたプレゼンテーションを行いました。

ゲルデスは、Revsが自動運転車に関する倫理的問題についてスタンフォードの哲学部門と協力していることを明らかにしたが、大学はまた、ロボット車が危機的な状況でどのような決定を下すかを決定するための一連のテストの実行を開始した。

哲学が車輪を握るとき

プレゼンテーションの一環として、Gerdesは、これらの問題を研究するのに哲学者が必要な理由を主張しました。 彼は、自動運転車の倫理的問題は動いている目標であり、「制限がない」と指摘したが、「問題を解決する」のはエンジニア次第だ。

これを行い、自動運転技術の倫理を単なる学術的な議論以上に進めるために、Revsは道路に障害物を置いてスタンフォードのx1テスト車両で実験を行っています。 彼は、車両のソフトウェアプログラム内で異なる優先順位を設定すると、「非常に異なる動作」につながると指摘しました。

Gerdesは、この初期の倫理ベースの自動運転ソフトウェアのプログラミングは、技術の「中核要件」になる可能性があり、象牙の塔で議論されたばかりのものではないと主張しました。 そして彼は、倫理は自動車メーカーが燃料ポンプやダッシュボードなどの「Tier 1」サプライヤーから調達できるものではないと付け加えた。 最近のVWディーゼルゲートスキャンダルは確かにそれを示しています。

経験豊富な人間のドライバーは、一瞬の意思決定に対処するために何年もプログラムされていますが、それでも常に正しい判断を下せるとは限りません。 しかし、Googleの自動運転車が日常の決定にどのように反応するかを見て、スタンフォード大学と学校の哲学部が行っている仕事について聞いた後、私は車が最終的により賢明な決定を下すと確信しています。

自動運転車に倫理を教えることのジレンマ| ダグ・ニューコーム