自駕車上路前 道德難題仍待解決 面臨突發狀況 AI如何衡量人命輕重

  • 謝明珊
面對自駕車的道德兩難,企業大多不是不予置評,就是否認問題。法新社

自駕車技術日新月異,開始面臨複雜的道德難題。為了避免車上乘客受傷,自駕車可以選擇避開傷害較大的障礙物而衝撞路人嗎?誰的性命比較有價值,已成為自駕車程式設計師不得不思考的問題。

根據INSIDER報導,若有一台自駕車在路上高速奔馳,前方有行人不慎跌倒,自駕車到底該閃避還是直接衝撞行人,前者可能傷及車上乘客,後者卻可能撞死行人。

美國麻省理工學院(MIT)認知科學家Iyad Rahwan和同事,專門研究人類如何思考註定全盤皆輸的道德難題,畢竟出門在外極可能會面臨這種困局。

加州理工大學哲學系教授Ryan Jenkins表示,開車勢必會給周圍的人製造危險,因此經過腳踏車騎士或行人身邊,必須保持安全距離,以免騎士不慎跌落腳踏車,或者行人失足跌倒,一不小心就會撞上。

美國維吉尼亞州運輸研究委員會科學家Noah Goodall表示,為了真正保障行人的安全,每當有行人靠近,自駕車應減速慢行,以免行人突然衝到車子前面。

人類懂得運用直覺應付大大小小的道德難題,但是對人工智慧(AI)來說就沒那麼簡單了。自駕車程式設計師只有兩條路可走,一是針對每種狀況制定明確的規則,二是依賴駕駛通則並祈禱行得通。

Rahwan表示,一方面演算法可能提供明確的規則,協助自駕車做出道德權衡,另一方面各種軟體組件的交互作用也會影響自駕車的決策,並沒有一套明確的程式來處理道德權衡問題。

艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)執行長Oren Etzioni則認為,不做決定也是一種決定。自駕車公司通常選擇逃避此議題,不是不予置評,就是否認問題,例如戴姆勒(Daimler)便表示,任何程式設計師和自動系統都無權衡量人命的價值。

不過Google對於如何把車禍傷害降到最小,倒提供比較多細節。2014年Google X創辦人Sebastian Thrun表示,如果有2件物體,Google自駕車會選擇衝撞較小的物體。衝撞較小的物體似乎很合理,可以保護車上的乘客,但也是把風險轉嫁到行人或小型車的乘客身上。加州理工大學哲學系教授Patrick Lin表示,較小的物體也可能是小朋友或嬰兒車。

2016年3月Google自駕車計畫負責人Chris Urmson則提出更清楚的解釋,Google自駕車會避免衝撞未受保護的道路使用者,包括自行車騎士和行人,再來才是移動中的物體。

美國國家公路交通安全管理局(NHTSA)對於自駕車的道德問題做出指示,製造商必須跟管制當局等利益關係人(例如駕駛人、行人、易受傷害的道路使用者)合作處理這些道德難題,確保自駕車做出有意識的倫理決定。

消費者觀察組織(Consumer Watchdog)Wayne Simpson則認為,民眾有權知道自駕車是以誰的性命為優先,要是這些問題沒有釐清,企業編寫程式時就會儘量撇清責任,而沒有考慮到社會風俗、道德和法律規範。

然而,自駕車其實比人類駕駛更安全,可望減少9成車禍傷亡。 Rahwan和同事皆認為,一旦採用自駕車,會拯救更多性命。