位置: 主頁 > 權威發布 > 專家解析 > 正文
專家解析僵尸車,
來源:中國企業新聞網       時間:2017-09-01 12:58
突然有五個人出現在你高速行駛的車的前方,而且當時已經沒有時間讓汽車停下來,這時,汽車可以選擇選擇猛打方向盤,讓車偏離道路,這樣可能會導致車上乘客死亡;它還有可能選
?
  突然有五個人出現在你高速行駛的車的前方,而且當時已經沒有時間讓汽車停下來,這時,汽車可以選擇選擇猛打方向盤,讓車偏離道路,這樣可能會導致車上乘客死亡;它還有可能選擇徑直軋向那五個人,導致行人的死亡。無人駕駛汽車應該怎么做?或許這個問題應該是,汽車編程人員教會汽車應該做什么?那么又是誰來告訴程序員應該怎么做呢?
專家解析僵尸車,誰將成為無人駕駛的“車下亡魂”?
  社會價值決定生死?
 
  在人工智能時代,每一個關于道德的問題似乎都在引發另一個問題。利茲培根教授是英國格林尼治大學建筑、計算和人文學科的副校長,她還擁有人工智能博士學位,是英國計算機協會的前任主席。上周在墨爾本舉行的國際人工智能聯合會議上培根教授表示,那些關于AI的法律的辯論仍面臨著大量復雜的問題亟待解決。
 
  在上述無人駕駛汽車的例子中,培根教授表示,在汽車中輸入的程序需要取代人類在同樣情況下所做的思考。“現在作為一名司機,你必須做出一個瞬間的決定,但對于自動駕駛汽車,你必須通過編程來判斷其后果。”在沒有選擇的情況下,你會怎么做?
 
  “你可以直接用數字來解決。”汽車可能會說,“我要離開公路,選擇犧牲自己車里的人,而不是那五個行人。”這取決于汽車的人工智能設計,以及人們對社會的價值。比如說汽車里的人碰巧掌握治愈癌癥的方法,而路上那五個人都是越獄的逃犯。
 
  “也許你說他們對社會的價值更少,所以你可能會說‘我要把那個人留在車里’。如果你真的考慮到人們對社會的價值,那就會產生可怕的后果。”如果你有一臺電腦可以進行瞬間的查找,自動駕駛汽車有各種各樣的關于他們周圍的人的知識來做出實際的決策。想到如何去編這個程序是很可怕的。接下來的問題是,如果你對算法進行編程,說“殺死這些人”,那么法院是否會認為這是蓄意謀殺?
 
  偏見or蓄意謀殺?
 
  培根教授說:“人們制造自動駕駛汽車就是個巨大的社會道德問題。”他還表示政府需要站出來,解決這些棘手的問題,“政府應該迎頭趕上,但我認為他們沒有。他們的立法往往落后于現實。我認為他們需要嘗試制定一些相關法律。對決策的實際微調可以在公司層面進行,在中層管理層面上,它可以在程序員的實際水平上完成——這就是我們存在潛在偏見的問題,可能是有意識的偏見或無意識的偏見。”
 
  當你的工作是為無人駕駛汽車編程時,你可能會不同意公司關于自動駕駛汽車應該如何處理不同路況的問題。你會讓汽車去撞死行人,不惜一切代價保護車上的人嗎?對此,培根教授說:“偏見會在任何程度的生產中蔓延。每個人都有自己評判對錯的標準,也有自己的個人底線,知道自己能夠與之互動。如果你處于壓力之下,你不想失去工作,你的老板會給你施加壓力,讓你做一些你覺得不舒服的事情,這是非常困難的。
?

責任編輯:小七

【字號 】 【打印】 【關閉
  
Copyright(C) 2006-2013 CHINAENN.COM All Rights Reserved
   投稿郵箱:[email protected]  咨詢QQ:137184775 
  京公網安備11010602130012號   京ICP備13042652號-4 
怎么买新时时 雪缘园既时比分赔率 足球即时指数即时欧赔 股票推荐群推荐比特币 如何选股 山东时时彩 股票分析 牛市快讯每天推送q 幸运飞艇 重庆时时彩 海南飞鱼 50万闲钱如何理财 配资炒股找久联优配 极速快3 重庆百变王牌 福州股票配资找象泰配资热情接待GO 河北快三 亿胜金融