危險的“極限”測試,揭秘特斯拉自動駕駛背後的試車員隊伍
特斯拉的自動駕駛測試伴隨着危險
鳳凰網科技訊 北京時間11月1日,《商業內幕》雜誌週四發文稱,自2013年以來,埃隆·馬斯克(Elon Musk)一直宣稱,特斯拉將推出自動駕駛汽車。爲了實現這一目標,特斯拉組建了一支專業的試車員隊伍,測試自動駕駛技術。這些試車員屬於特斯拉內部所稱的“牛仔競技項目”(Project Rodeo)。
該項目的試車員表示,他們把特斯拉自動駕駛系統推向了極限,努力縮小輔助駕駛系統和完全自動駕駛系統(FSD)之間的差距。他們在開放的街道上測試尚未發佈的系統,會遇到其他車輛、騎行者和行人。對於特斯拉來說,這些測試對於該公司推進自動駕駛技術至關重要。
據試車員們透露,他們有時會遇到危險情況,尤其是“牛仔競技項目”下屬“關鍵干預”團隊的駕駛員。“關鍵干預”團隊試車員表示,他們經過了培訓,被要求在接管汽車之前等待儘可能長的時間。特斯拉工程師表示,這麼做是有原因的:汽車自動駕駛的時間越長,他們收集到的數據就越多。自動駕駛技術和安全方面的專家表示,這種方法可以加快軟件的開發,但會給試車員和公路上的人帶來安全風險。
“這就好比你是一個騎在公牛上的牛仔,儘量堅持得越久越好。”一名前試車員說,他曾在舊金山的“關鍵干預”團隊接受過培訓。
特斯拉自動駕駛技術關係重大。馬斯克在2022年表示,自動駕駛決定了“特斯拉是值很多錢還是基本上一文不值”。摩根士丹利分析師亞當·喬納斯(Adam Jonas)上月在一份報告中寫道,特斯拉未來的估值“高度依賴於其開發、製造並將自動駕駛技術商業化的能力”。由於特斯拉的自動駕駛出租車發佈會令人失望,特斯拉股價在次日大跌了10%。在特斯拉10月23日發佈財報後,該股出現反彈,今年爲止累計上漲超過3%。
“危險駕駛”
《商業內幕》採訪了美國加州、得州和佛羅里達州等州的九名現任和前任“牛仔競技項目”項目試車員和三名特斯拉Autopilot工程師。這些試車員負責訓練特斯拉的FSD和Autopilot系統。儘管這兩個系統的名稱中都帶有自動駕駛,但它們仍需要一名有駕照的司機來駕駛。
其中八位試車員描述了他們在過去一年中的經歷,主要集中在去年11月至今年4月。他們都表示,自己沒有捲入過事故。
五名在2024年爲特斯拉工作的試車員表示,他們曾經有幾次險些發生碰撞,包括差點撞到一羣行人。一名在得州工作的前“關鍵干預”團隊試車員表示,他們有時會在深夜前往市裡的酒吧區,觀察特斯拉FSD如何應對醉酒的顧客在酒吧打烊後成羣結隊地出現在街道上。舊金山的一名前試車員回憶起在斯坦福大學附近行駛,測試FSD在他們需要接管前能讓車輛離人行橫道上的人有多近。第三位“關鍵干預”團隊試車員表示,他們允許汽車加速闖黃燈,在高速公路上以低於限速的35英里/小時行駛,以避免車輛脫離自動駕駛系統。
特斯拉Autopilot輔助自動駕駛系統
一位前Autopilot工程師表示,雖然測試是在開放道路上進行的,但特斯拉首先會進行數百次模擬,有時會在封閉場道路上測試難以處理的場景,然後纔將新系統推送到試車員的車輛。
特斯拉沒有迴應有關“牛仔競技項目”及其自動駕駛技術的詳細問題。
“關鍵干預”團隊
領英資料顯示,特斯在今年大舉招聘,至少在6個美國城市招募了試車員。
2023年的一份招聘啓事稱,試駕員需要“安全駕駛習慣、無不良駕駛記錄以及至少4年的持證駕駛經驗”。八名試車員告訴《商業內幕》,入職過程包括兩到三週的實踐培訓,包括有培訓員坐在副駕駛座位上的試駕。
根據試車員提供的信息和內部文件,“牛仔競技項目”中有一個專門小組,他們會在地圖上隨機選擇一些地點,在這之間駕駛,以模擬網約車司機的工作。而另一個被稱爲“黃金手冊”團隊的小組則完全手動駕駛,不使用任何輔助功能,以便爲FSD系統提供規範、無誤的駕駛表現。
“關鍵干預”團隊試車員是“牛仔競技項目”中最有經驗的一批人,即使在自動駕駛系統犯錯後,他們也會讓系統繼續駕駛。據三名“關鍵干預”團隊試車員和另外五名熟悉該團隊任務的試車員表示,他們接受的“干預”(手動控制汽車)培訓只是爲了防止撞車。
根據試車員提供的信息和內部文件,當FSD啓用時,車輛有時會闖紅燈、轉入其他車道,或未遵循規定的限速。試車員表示,他們在這些情況下仍然會允許FSD保持對汽車的控制,因爲主管鼓勵他們儘量避免接管汽車。
馬斯克
卡內基梅隆大學的自動駕駛專家菲利普·庫普曼(Philip Koopman)表示,特斯拉的關鍵干預方法是“不負責任的”,該公司應該在封閉場地上模擬所有“關鍵場景”。“通過讓軟件繼續錯誤操作,達到試車員需要避免碰撞的程度,特斯拉實際上把風險強加給其他未同意作爲測試對象的道路使用者。”
風投公司NIVC的合夥人、前自動駕駛創業公司Argo AI的運營總監亞歷克斯·羅伊(Alex Roy)表示,企業應該在自動駕駛系統一旦偏離正常軌道時立即進行修正,特別是在公共道路上。“你應該在模擬環境中處理這些錯誤,而不是在開放道路上,”羅伊說,“現實世界的測試是必要的,但不能在現實世界犯錯誤。”
上述前特斯拉Autopilot工程師表示,他們懷疑計算機模擬是否足夠精密到創造出真實駕駛所產生數據的水平。這位前工程師說,爲了幫助軟件改進,試車員最好儘可能不要干預。
“如果你的父母一直扶着自行車,你永遠學不會騎車。”該工程師說。
現實世界的測試驚心動魄,“牛仔競技項目”的試車員們對此深有體會。“在整個八小時輪班中,你幾乎都是在腎上腺素的刺激下駕駛,”一位來自美國西南部的前試車員說,“你會有一種感覺,那就是危險即將發生。”
爲了工作面臨危險
據“關鍵干預”團隊試車員回憶,他們曾遇到過多次感到不安全的情況,但他們認爲干預汽車可能會讓他們丟掉工作。一名得州前試車員回憶說,只有在FSD幾乎將車撞向一個停在路口的車輛側面時,他才接管了汽車。
非“關鍵干預”團隊的試車員也表示,他們承受着壓力,要儘可能地把自動駕駛汽車推向極限。五名現任和前任試車員稱,他們被告知,如果對系統的行爲感到不適,可以進行干預,但有時如果被認爲接管得太早,可能會收到來自主管的反饋意見。
特斯拉前試駕員和數據分析師約翰·伯納爾(John Bernal)表示,他們早在2022年就處理過危險情況。就是在那一年,伯納爾被特斯拉解僱。他說,自己之所以被解僱,是因爲他在自己的YouTube頻道上分享了他的私人特斯拉汽車在啓用FSD時發生故障的視頻。他描述了自己爲了收集數據而違反交通法規的例子。伯納爾說,他的主管從未指示他違法,但他有時覺得這是獲得公司想要數據的唯一途徑。
他回憶起2022年的一次測試,目的是看系統識別紅燈的能力。“我接受的訓練是,等到車輪碰到白線時,我才能猛踩剎車。”他說,如果系統不能正常工作,他有時會停在十字路口的中間。
伯納爾還曾訓練自動駕駛系統識別“弱勢道路使用者”。根據美國運輸部的定義,“弱勢道路使用者”爲行人、自行車騎行者、滑板車或輪椅使用者以及在路上作業的工作人員。在此過程中,他手動駕駛一輛配備激光雷達和雷達傳感器的特斯拉“真實數據採集車”,幫助系統繪製並識別物體。
“我會壓過雙實線靠近一輛自行車,”伯納爾說,“我會慢吞吞地穿過一條滿是醉漢的小巷,而且我還會非常粗魯地靠近他們。”
行業慣例?
這些試車員的經歷凸顯出,特斯拉和其他汽車製造商在準備把他們的自動駕駛系統提供給更廣泛消費者使用時,需要平衡技術開發和安全風險。
專家表示,公路測試至關重要,這有助於自動駕駛技術在進入市場前確定安全問題。美國國家公路交通安全管理局(NHTSA)的前安全顧問米西·卡明斯(Missy Cummings)表示,儘管做法各不相同,但她認爲許多自動駕駛汽車公司很可能會採用類似於特斯拉的策略。
“從理論上講,這些試車員都經過了培訓,汽車最終也確實需要能夠在公共領域運行。”卡明斯稱。她補充說,清晰標識的車輛可以幫助公衆更好地識別試車員。
Waymo自動駕駛出租車
兩位前Waymo員工表示,他們也有一個類似於特斯拉“關鍵干預”團隊的隊伍,但Waymo的“關鍵干預”測試僅限於封閉賽道,且使用的是假人。通用旗下自動駕駛公司Cruise的兩名前員工則表示,他們有測繪團隊以及在封閉場地及公共道路上進行測試的團隊,但與特斯拉不同的是,這些團隊被指示在系統出現差錯時立即接管,並且測試時車內至少有兩個人。
Waymo發言人表示,該公司的安全框架包括在受控環境和公共道路上進行嚴格的測試。Cruise發言人則表示,該公司的車輛的設計初衷是完全自動駕駛系統,因此與特斯拉的駕駛輔助技術有着根本性不同。。
“狂野的西部”
安全專家指出,分散且有限的自動駕駛汽車法規以及汽車製造商的自我報告,創造了一個複雜的環境。在這種環境下,企業必須在公共安全與推進產品商業化之間找到平衡。
“關於自動駕駛測試的規定非常少,很大程度上依賴於企業的自我報告,”前NHTSA管理員、亞馬遜旗下自動駕駛出租車公司Zoox的首席安全創新官馬克·羅斯金德(Mark Rosekind)說,“如果企業不進行報告,就很難知道發生了什麼。”
過去十年,美國監管機構已對包括特斯拉、Waymo和Cruise在內的幾家汽車製造商進行了調查,原因是他們的汽車捲入了與自動駕駛或輔助駕駛系統相關的事故。
特斯拉是衆多試圖讓自動駕駛汽車成爲現實的汽車製造商之一。在谷歌母公司Alphabet的支持下,Waymo於2020年在鳳凰城推出了首個無人駕駛出租車服務。
“在很多方面,這就像狂野的西部(缺乏監管),”前NHTSA安全顧問卡明斯說,“在訓練自動駕駛汽車或向公衆告知測試方面,幾乎沒有什麼監管。”(作者/簫雨)
更多一手新聞,歡迎下載鳳凰新聞客戶端訂閱鳳凰網科技。想看深度報道,請微信搜索“鳳凰網科技”。