應用

技術

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

如何起訴一輛自動駕駛汽車?

2019-05-05 09:35 汽車商業(yè)評論

導讀:毫無疑問,L5的自動駕駛汽車應該由自動駕駛系統(tǒng)來操控。這就解決了一個問題:L5自動駕駛汽車事故中,人類是否有過錯?答案是否定的,因為L5自動駕駛汽車無需人類駕駛。

自動駕駛,自動駕駛,特斯拉,馬斯克,無人駕駛

圖片來自“123rf.com.cn”

【編者按】在L4和L5自動駕駛模式下,由于司機不再控制駕駛活動或者根本就不存在司機,所以當發(fā)生事故時,只能考慮追究汽車制造商、自動駕駛系統(tǒng)提供者等相關主體的責任,一般為產(chǎn)品責任。汽車制造商會去擔責嗎?司機真的毫無責任嗎?

本文首發(fā)于汽車商業(yè)評論,作者石彩云;由億歐編輯,僅供行業(yè)人士參考。


自動駕駛能帶來福祉,也會招致災禍。隨著汽車駕駛任務的自動化程度越來越高,有關交通事故的訴訟和法律糾紛數(shù)量無疑也會激增。天下沒有免費的午餐,自動駕駛汽車的到來也會付出一些代價。

在4月22日的自動駕駛投資者日活動中,有人向特斯拉CEO埃隆·馬斯克(Elon Musk)提出了這樣一個問題:如果特斯拉的完全自動駕駛汽車卷入一場車禍,誰來承擔責任?

馬斯克似乎被這個問題驚到了,他考慮了一會兒,然后說會是特斯拉。盡管他的回答有些遲緩,但是他的停頓也可以理解,因為這類問題還沒有一個明確的“標準答案”。

讓我們考慮一下為什么。

首先,讓我們考慮一下駕駛的本質(zhì)。動態(tài)駕駛任務(Dynamic Driving Task,DDT)是自動駕駛汽車領域的正式用語,指駕駛汽車的行為,包括所有的策略和操作步驟,如轉向、加速、減速、目標監(jiān)測、躲避和機動等?,F(xiàn)在,動態(tài)駕駛任務的主要操作者仍然是人類。人們注視前方的道路,駕駛汽車,踩剎車,踩油門,或者練習一種駕駛汽車的超能力。

盡管這種超能力難以與超人、沙贊和神奇女俠等著名的虛構人物相比,但仍然稱得上一項非凡的壯舉。在大多數(shù)情況下,人類都能夠正確地完成這項任務。駕駛行為被很多人視為一項有點瑣碎的任務,實際上它涉及到一系列不可思議的操作能力,很難實現(xiàn)完全的自動化。

半自動駕駛意味著共擔駕駛任務

半自動駕駛汽車需要人類和自動化系統(tǒng)共同駕駛汽車,通常叫做高級駕駛員輔助系統(tǒng)(ADAS),為人類駕駛員分擔DDT的某些駕駛任務。但是,這些半自動駕駛汽車往往不被看作真正的自動駕駛汽車,因為它并不像L5一樣能完全脫離人類的操作。

但是,半自動駕駛參與的駕駛行為是訴訟高危區(qū)。當涉及到半自動駕駛汽車的事故時,該由誰來負責呢?

目前給出的直接答案是:人類司機。在共同參與的駕駛任務中,假設人類駕駛員最終要對事故負責,有人可能會把這比作是船長對船只負有最終責任,而不管發(fā)生了什么其他可能導致船只墜毀或沉沒的事件。

這種“標準”是否會不可避免地適用于半自動駕駛汽車,目前還不是很明顯?,F(xiàn)在,我們看到了L3半自動駕駛汽車的出現(xiàn),它們有越來越強的操縱能力,可以自動改變車道,可以在城市街道上行駛等等。

盡管有了這些進步,人類駕駛員仍被視為是車輛的控制者,至少汽車制造商和科技公司是這么說的,但人類駕駛員能真正理解這一點嗎?

具有諷刺意味的是,車輛自動化程度的提高也給人類駕駛員帶來了“誘惑”,他們想當然地認為他們不需要再駕駛汽車,在駕駛中很可能成為一個漫不經(jīng)心的“副駕駛員”。

大家可能都看到過人類司機在駕駛過程中用智能手機打字、看劇的行為,他們似乎忽視了路況和駕駛任務的難度,這是相當危險的。自動駕駛系統(tǒng)很可能突然需要幫助,包括瞬間的駕駛決策和人類司機的瞬間干預,然而這時候人類司機可能還被他們最喜歡的電視節(jié)目的最新一集深深吸引著。

災難的處方

在美國,尋求產(chǎn)品責任索賠有三種核心方式,包括:

?未能充分警告正確的使用方法

?產(chǎn)品設計存在缺陷

?產(chǎn)品制造存在缺陷

L3半自動駕駛汽車的問題在于汽車制造商或科技公司們能否針對車輛的正確使用提供足夠的預警,這意味著人類司機駕駛前是否充分了解駕駛任務?他們是否明確自己在自動駕駛汽車中扮演的角色是什么?

一些汽車制造商也正在增加一些監(jiān)測設備,檢查人類駕駛員是否在專心駕駛,比如:一個對準駕駛員眼睛的攝像頭,或者一個感知駕駛員手部壓力的方向盤。但是,這樣就夠了嗎?此外,如果在駕駛手冊中寫明車主作為人類駕駛員的一些職責,這會被認為是充分的警告嗎?(一些人認為,忽視駕駛手冊或者把它擱置一旁是很常見的事情)

如果你的傳統(tǒng)汽車被一個有人類司機駕駛的L3自動駕駛汽車撞壞,司機顯然沒專心駕駛。除了追究那個粗心司機的責任,你可能會錯過向汽車制造商或科技公司問責,因為他們沒有確保他們的產(chǎn)品充分提醒車主如何正確使用車輛。

你可以直接控訴汽車制造商或科技公司的產(chǎn)品設計有缺陷,而不是警告。

假設自動化用于警告人類駕駛員在某一情況下即將撞車,使他們及時采取彌補措施,設計人員會選擇某種方式來編寫代碼,比如需要四秒鐘來提供這樣的警報。這四秒鐘的規(guī)定可能會被證明是一個有缺陷的設計選擇,也許研究表明應該是兩秒鐘,但這不是設計師做的決定。

也有可能會涉及到制造上的缺陷,比如在制造L3自動駕駛汽車時,用于檢測前方物體的傳感器可能安裝不當。

L5駕駛行為的負責人

在自動駕駛汽車上,一些汽車制造商或科技公司可能會跳過較低的等級,直接將目標定在L5,部分原因是試圖避免不確定的人機共同駕駛的困境。

毫無疑問,L5的自動駕駛汽車應該由自動駕駛系統(tǒng)來操控。這就解決了一個問題:L5自動駕駛汽車事故中,人類是否有過錯?答案是否定的,因為L5自動駕駛汽車無需人類駕駛。

如果一個人工智能系統(tǒng)或自動駕駛系統(tǒng)正在進行L5駕駛,這是否意味著自動化是有意識的,并且在某種程度上是要負責任的,就像一個人類駕駛員一樣?駕駛汽車的人工智能系統(tǒng)并不是一種生命形式“存在”,我們距離有知覺的人工智能的時代還很遠。

盡管目前關于誰為L5自動駕駛行為負責的看法未有定論,但可能的目標負責人已經(jīng)確定。

他很可能是L5自動駕駛汽車的汽車制造商和技術開發(fā)商,因為他們是L5無人駕駛人工智能系統(tǒng)的設計者和建造者,也可能是L5自動駕駛汽車的車主,無論是車隊車主還是個人車主。也可能是兩者共同承擔責任。

但肯定不會是人工智能本身負責,盡管人工智能系統(tǒng)包含某種機器學習或深度學習。

對于誰該為事故負責的關注點最終歸結為自動駕駛的實現(xiàn)方式,制造和設計是否有缺陷,或者是否向司機警告了正確的使用方法。

也許在遙遠的未來,我們會設計一種能獨立思考的人工智能駕駛系統(tǒng)。你可以起訴它,但放心,它不會像現(xiàn)在新興的L5汽車那樣,它們不會自己坐在證人席。或許,也會很快。