※ 本文轉寄自 ptt.cc, 文章原始頁面
看板car
標題

[情報] 2020 最新自動駕駛技術報告出爐!以特斯

時間
最新2020-06-06 15:12:00
留言104則留言,51人參與討論
推噓-3 ( 242753 )
來源: https://bit.ly/30866Fa 文章很長,建議有興趣的人看來源(中文,只有部分內容),若有條件的話最好 是看原文來源(英文):https://bit.ly/36XTzFG 不過原文有點長,當初我花了兩三天才分段看完,當初看完後原本想發,但因 為太長了只翻到一半遲遲沒發。現在看到原來有人寫成中文文章,就轉發過來, 不過這份中文文章也只是簡介並且只有前面約1/4 的內容。 這篇文章是從市售車(Tesla)與試驗車(Volvo、Waymo) 將其車上的感應器做分 類介紹並且就背後的原理、軟體方法等逐一做介紹,從內容中也可以看到各家 目前對無人駕駛的意見很不一致,例如Mobileye 與MIT 對於高精度數位地圖的 看法就很不一樣: “If we want to have autonomous cars everywhere, we have to have digital maps everywhere” Amnon Shashua, Chief Technology Officer at Mobileye, 2017 “The need for dense 3-D maps limits the places where self-driving cars can operate.” Daniela Rus, director of MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL), 2018 而對於將無人駕駛技術放到燃油車上M-Benz 也說這沒有任何意義,因為會使油 耗大幅度增加: “To put such a system into a combustion-engined car doesn’t make any sense, because the fuel consumption will go up tremendously,” Wilko Stark, Vice President of Strategy, Mercedes-Benz, 2018 而對於該使用DSRC 還是C-V2X,意見也是非常的分歧。 而最知名的歧見大概就是光學雷達派與視覺辨識派,光學雷達派認為光學雷達 是必要的,若成本下降就連Tesla 也會開始裝光達。 而視覺辨識派像是Elon Musk,他認為問題在於視覺辨識,人類都能靠兩隻眼睛 開車了,而處理速度更快的攝影機也可以,而且就算用上光達,都是要解決視 覺辨識問題,一但解決了視覺辨識問題,那麼光達就顯得不必要而且昂貴,如 果你解決不了視覺辨識問題,那你就解決不了無人駕駛問題,有光達也沒用。 同樣的Nissan 也認為,光達目前缺乏超越雷達和攝影機的能力。 “Once you solve cameras for vision, autonomy is solved; if you don’t solve vision, it’s not solved … You can absolutely be superhuman with just cameras.” Elon Musk, 2017[19] “At the moment, lidar lacks the capabilities to exceed the capabilities of the latest technology in radar and cameras,” Tetsuya Iijima, General Manager of Advanced Technology Development for Automated Driving, Nissan, May 2019[20] “Let’s be candid, lidar is unaffordable in consumer vehicles, but if a lidar unit were available today that had good performance and was affordable, it would quietly show up in a Tesla car and this whole hubbub would go away.” Bill Colleran, CEO, Lumotive, June 2019[21] 像這樣廣泛的介紹無人駕駛技術各方之間的主張在文中相當的多,有興趣的人 真的可以好好找時間讀一讀原文。 https://i.imgur.com/uZnRhZf.jpg
[情報] 2020 最新自動駕駛技術報告出爐!以特斯
2020 最新自動駕駛技術報告出爐!以特斯拉、Volvo 為例,全面涵蓋智駕技術 進入 2020 年,自動駕駛技術跨越式與漸進式路線的陣營劃分已十分明顯,但最終自動駕 駛要完全自動化,技術還需要不斷更新發展。 對自動駕駛的技術進展,WEVOLVER 發表的《2020 自動駕駛技術報告》(2020 Autonomous Vehicle Technology Report)做了全面闡釋。 報告從感測、規劃、執行三層面闡述自駕車技術的最新發展狀況,涉及感測器、資料處理 、機器學習、SLAM 與感測器融合、路徑規劃等多領域,同時提供多家自動駕駛公司的案 例,包括特斯拉、Volvo、Waymo 等。 感測 自駕車是在未知動態環境執行,所以需要事先構建環境地圖並自我定位,而執行同步定位 和對映過程(SLAM,即時定位和地圖構建)輸入則需要感測器和 AI 系統幫助。 報告指出,感測器可分為有源感測器和無源感測器,各種感測器都有優缺點,沒有單一感 測器適用所有路況。通常情況下,想可靠安全操控一輛自駕車,需要同時使用多種感測器 。 一般情況下,自駕車感測器主要有 5 種: 遠端雷達:訊號能透過雨、霧、灰塵等視線障礙物偵測目標。 照相機:一般以組合形式探測短程目標,多應用於遠距離特徵感測和交通偵測。 光學雷達:多用於 3D 環境對映和目標偵測。 短程/中程雷達:中短程目標偵測,適用側面和後方避險。 超音波:近距離目標偵測。 各類感測器均有優缺點,而自駕車需要從技術判斷選擇感測器,篩選條件主要有幾方面: 掃描範圍,決定感測器反應感測物體的時間。 解析度,感測器可為自駕車提供多少環境細節。 視野/角度解析度,決定自駕車需要多少感測器涵蓋感測區域。 3D 環境區分靜態和動態物體的能力。 更新率,決定感測器資訊更新的頻率。 不同環境條件下的總體可靠性和準確性。 成本、大小和軟體相容性。 生成資料量。 以下是特斯拉、Volvo-Uber、Waymo 的感測器方案示意圖: 另外,關於無源感測器和有源感測器,報告也詳盡介紹: 無源感測器 無源感測器能探測環境物體反射的現有能量,如光、輻射等。但在弱光環境下,由於自己 沒有傳遞源,無源感測器的效能將會下降。並在產生資料方面,比起有源感測器,無源感 測器產生的資料量更多,約 0.5~3.5Gbps。 即便如此,無源感測器仍有許多特點: 涵蓋整個視野寬度的高解析度畫素和色彩。 視野保持恆定幀頻。 兩個鏡頭可生成一個 3D 立體檢視。 缺乏發射源,減少其他車輛干擾的可能性。 技術成熟,成本低。 系統生成的影像便於用戶理解互動。 如果在自駕車使用無源鏡頭感測器套件,需要涵蓋汽車周圍環境。這可透過使用特定時間 間隔拍攝影像的旋轉相機做到,或用軟體將 4~6 台相機影像接在一起。 此外,這些感測器需要超過 100 分貝的高動態範圍(場景高光和陰影成像能力),能在 各種光照條件下工作,並區分不同物體。 有源感測器 有源感測器有訊號傳送源,依靠 TOF 原理感測環境,ToF 能透過等待訊號反射傳回測量 訊號從源頭到目標的傳遞時間,訊號頻率決定系統使用的能量及準確性。因此,確定正確 的波長在選擇系統時是關鍵。 關於有源感測器種類,報告主要介紹 3 種: 超音波感測器:也稱為聲納、聲音導航測距。在有源感測器中,音波頻率最低(波長最長 ),因此更容易被干擾,這也意味著超音波感測器很容易受不利環境條件影響,如下雨和 灰塵。另外,其他音波產生的干擾也會影響感測器效能,需要透過使用多感測器和依賴其 他種類感測器來緩解干擾。 雷達:主要以無線電波測距。無線電波以光速傳遞,電磁波譜中頻率最低(波長最長), 基於無線電波反射特徴,雷達感測器可探測到前方物體以外的東西。 不過,雷達訊號容易被具相當導電性的材料(如金屬物體)反射,並其他無線電波干擾也 會影響雷達效能,造成雷達感測器無法探測。確定探測目標的形狀這點,雷達的能力不如 光學雷達。 光學雷達:以脈衝光學形式使用光。光學雷達感測器以每秒 50,000~200,000 脈衝的速度 掃描一個區域,並將傳回訊號編譯成 3D 點雲圖,透過比對連續感測的點雲圖、物體差異 偵測運動,建立 250 公尺範圍的 3D 地圖。 規劃 根據自駕車感測器套件擷取的初始資料和已有地圖,自動駕駛系統需要同時定位和對映演 算法構建和更新具體環境地圖,追蹤具體定位,開始規劃從一點到另一點的路徑。 SLAM 與感測器融合 SLAM 是複雜的過程,因定位需要地圖,而繪製地圖需要良好的位置估算。為了更準確執 行即時定位和地圖構建,感測器融合開始發揮作用。 感測器融合是將多感測器和資料庫結合,以改進資訊的過程,是多層次任務,能處理資料 間的聯繫和相關性組合資料,與使用單資料源相比,能獲得更便宜、更高品質、相關性更 高的資訊。 自駕車 AI 架構主要有兩種方法: 逐步處理。把整個駕駛過程拆解為一系列逐層連線的流水線,其中每一步,如感測、定位 、地圖、路徑導航、運動控制,都分別由各自軟體套件處理。 端到端。基於深度學習的解決方案,一次性處理所有功能。 透過感測器融合,自駕車獲得資料,不過如何從感測器訊號擷取有用的資訊,並基於現有 資訊執行,需要利用機器學習演算法──CNN、RNN、DRL。 CNN(卷積神經網路):主要用於處理影像和空間資訊,擷取感興趣的特徵和辨識環境物 體。神經網路是由一個卷積層構成:一個過濾器集合,嘗試區分影像元素或輸入資料做好 標記。卷積層匯出輸入到演算法,演算法結合資訊預測影像的最佳說明。最後的軟體通常 稱為物體分類器,因可分類影像裡的物體,如交通號誌或另一輛車。 RNN(遞迴神經網路):主要用於處理影片資訊,先前步驟匯出將輸入網路,允許資訊和 知識在網路持久存在並內化。 DRL(深度強化學習):DRL 允許軟體定義的「代理」學習在虛擬環境使用獎勵函數,達 成目標最佳操作。這些針對目標的演算法將學習如何達成目標,或如何在多步驟下沿著特 定角度最大化。目前,深度強化學習在自駕車的應用還處在起步階段。 這些方法不一定獨立存在。為了避免過度擬合,深度學習通常會多工訓練網路。當機器學 習演算法訓練用於特定工作時,它會變得非常專注模仿訓練的數據,以至於嘗試插值或外 推時,結果會不太現實。 透過多工訓練機器學習演算法,網路核心將專注發現所有目的都有用的通用特徴,而不是 專注於一個工作,以便輸出更實際有用的應用程式。 利用感測器的所有資料和演算法,自駕車能探測周圍物體。接下來,它需要找到一條路。 路徑規劃 車輛了解環境物體及位置後,可使用 voronoi 圖(車輛與物體間的最大距離)、使用網 格演算法或駕駛廊道演算法,確定車輛的大範圍路徑。然而,這些傳統方法無法滿足車輛 於動態環境行動。 報告指出,部分自駕車不僅依靠機器學習演算法感測環境,還依靠這些資料來控制車子。 路徑規劃可透過模仿學習傳授給 CNN,CNN 會嘗試模仿駕駛的行為。 通常情況下,這些機器學習方法會與經典的運動規劃和軌跡最佳化方法結合,以確保路徑 的強健性。此外,出於其他目的(如減少燃料使用),車商還會在模型提供最佳路徑參考 。 車輛執行過程的神經網路訓練和推理需要巨大計算能力,由於汽車需及時回應新數據,因 此操作車輛所需部分處理需在車上進行,模型改進可在雲端完成。 目前,機器學習的最新進展在有效處理自駕車感測器產生的資料,減少計算成本。此外, 晶片製造和微型化進步也提高可安裝於自駕車的計算能力。隨著網路協定進步,自駕車或 許能靠低延遲基於網路的資料處理,幫助自己自主操作。 執行 那麼,車輛是如何行動的? 人類駕駛的車子,轉向、剎車或訊號等動作通常由駕駛控制。駕駛的機械訊號由電子控制 單元(ECU)轉換成驅動指令,再由電動或液壓執行器執行。 (半)自駕車中,這種功能直接被與 ECU 通訊的驅動控制軟體取代。這些軟體能改變車 輛架構,減少零件數量;尤其是專門用於為 ECU 將機械訊號從駕駛轉換為電訊號的零件 。 自駕車通常包含多個 ECU,一般約有 15~20 個,高階車款可能達 100 個。 ECU 是簡單的計算單元,有獨立微控制器和記憶體,處理收到的輸入資料,並轉換為子系 統匯出指令,如轉換自動變速箱。 一般來說,ECU 既可負責控制車輛操作,也能負責安全功能,執行資訊娛樂和應用程式。 並大多數 ECU 支援單應用程式,如電子動力轉向,能在區域執行演算法和處理感測器資 料。 挑戰一:系統複雜性 工程師需要為系統設計正確的電子架構,以便融合感測器,將決策同步配置到按指令行事 的較低層子系統,這對需求的增加和複雜性提出挑戰。 理論上,在一種極端情況下,人們可以選擇完全分散式架構,每個感測單元處理初始資料 並與網路其他節點通訊。光譜另一端有個集中架構,所有遠端控制單元(RCUs)都直接連 線到中央控制點,控制點收集所有資訊並執行感測器融合過程。 這範圍中間是混合解決方案,將在更高抽象等級工作的中央單元與執行專屬感測器處理, 或與執行決策演算法區域結合。這些區域可基於車輛內部位置,如車子前或後部區域,控 制的功能類別,或處理的感測器類別(如照相機)。 在集中式體系架構,不同感測器的測量值是獨立的,不受其他節點影響。資料在系統的邊 緣節點沒有修改或過濾,為感測器融合提供最大可能資訊,並具較低延遲。這架構的挑戰 在大量資料需要傳輸到中央單元並處理,這需要強大的中央電腦,而且還要高頻寬的重型 線束。 分散式架構可用更輕的電氣系統達成,但更複雜。儘管在這樣的架構,與頻寬和集中處理 相關的需求大大減少,但驅動和感測階段之間引入延遲,增加資料驗證的挑戰性。 挑戰二:動力、熱量、重量和體積增加 除了增加系統複雜性,自動化還會增加車輛零件的功耗、熱足跡、重量和大小。無論架構 是分散式還集中式,autonomous 系統的功耗需求都很巨大,這之中主要的驅動因素是競 爭需求。 全自駕車的競爭需求比目前生產最先進的汽車高出近 100 倍。對純電動車來說,行駛里 程容易受動力需求的負面影響。因此,Waymo 和福特等公司選擇專注混動車,Uber 則使 用全汽油 SUV。然而專家指出,全電動最終會成為動力系統的選擇,因內燃機在為車載電 腦發電方面效率不佳。 處理需求增加和更高功率吞吐量會使系統升溫,但為了使電子元件正常可靠工作,不管車 外部條件如何,電子元件必須保持於一定溫度範圍內,這就需要冷卻系統。但冷卻系統會 增加車重和體積大小,特別是液體冷卻。另外,其餘套件、布線和熱管理系統也會對車重 、體積和熱效能造成壓力。 自動驅動元件的供應商正改變產品,從減輕像 LIDARs 等大型元件重量,到構建 semiconductor 這類微型元件。同時,半導體公司也在製造占地面積更小、熱效能更好、 干擾更小的元件,發展各種矽元件,如 MOSFET、bipo – lar 電晶體、二極體和積體電 路。 不僅如此還考慮使用新材料氮化鎵(GaN)。與矽相比,氮化鎵可更有效傳導電子,在給 定的導通電阻和擊穿電壓下,製造出更小元件。 一輛全自駕車包含的程式碼可能比迄今開發的任何軟體平台或作業系統都多,要自行處理 所有演算法和過程,需要顯著的計算能力和強大的處理能力,目前 GPU 加速處理正成為 產業標準。 在 GPU 領域,Nvidia 是市場領導者。Nvidia 的競爭主要集中在張量處理單元(TPU)晶 片設計,加速深度學習演算法核心的張量運算。另外,GPU 用於圖形處理也阻止深度學習 演算法充分利用晶片的能力。 可見,隨著車輛自動化程度提高,車輛的軟體形態將發生顯著變化。除此之外,車子擁有 更多自主權,也會影響用戶與車輛的互動方式。 -- 宅男Elon Musk 18年年底與Tesla 員工聚會: https://i.imgur.com/M3p884k.png
[情報] 2020 最新自動駕駛技術報告出爐!以特斯
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.224.217.107 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1591269819.A.67C.html

104 則留言

andy82116, 1F
看這麼多樓主心動了嗎?何不買一台model3呢?反正折價

andy82116, 2F
低售價也低開個一年試試看,還不會虧本呢?

cfk301, 3F
不要逗弄他了!混口飯吃而已...

showingstar, 4F
good review 有些內容跟教主的說法不同

la1209, 5F
開ap還不是去撞車

toeic900, 6F
有安全氣囊技術報告嗎?

kazami, 7F
Musk那種說法就是無知的說法,人類可以只靠兩隻眼睛開車

kazami, 8F
,後面可是有一顆複雜程度超過全世界計算力總合的神經網

kazami, 9F
絡在運作。
請問你這說法是從哪來的?我很好奇 我並沒有聽過人腦複雜程度超越全世界計算力的類似說法 最多只知道我們對於人腦如何運作並不是完全了解 另外Elon Musk 是Open.AI 的創始人之一 同時也是研發植入式腦機介面技術的Neuralink 其創始人 我可以很肯定的說他對於AI 以及人腦的了解絕對不是你講的"無知"
※ 編輯: Scape (36.224.217.107 臺灣), 06/04/2020 19:50:05

flexin, 10F
嘻嘻

gtoselina, 11F
看不懂,我只知道他會直直撞

longdi427, 12F
教主何時牽車啦,大家慇慇期盼~

sazabik, 13F
感謝分享

Baumgartner, 14F
教主:你們越噓 我越要洗

Baumgartner, 15F
今天已經洗8篇了

Baumgartner, 16F
連震撼哥一天也才2 3篇而已

thuash, 17F
人看到牆會直直撞下去?這東西看起來很聰明,但根本不成熟

KoWenJe, 18F
原來教主還沒買車喔 好可惜喔 不能在等超充的時候跟車友

KoWenJe, 19F
聊到底怎麼直直撞上貨車了

Baumgartner, 20F
整天洗文 教主是不是學生啊 很閒的研究生之類的

Windcws9Z, 21F
人腦能發明AI,AI能發明人腦嗎

aleckleehaha, 22F
要幾篇?

colapola, 23F
結果還是一頭撞上去~還敢自駕啊?

Rayearth2037, 24F
不能質疑Musk

scelerisque, 25F
Google 仔還是算了吧

CMLeeptt, 26F
洗完了沒?

mmppeegg, 27F
你是正職特斯拉寫手吧 別跟我說你沒賺錢

mmppeegg, 28F
可不可以不要什麼東西都PO上來

ru04hj4, 29F
呵呵 物極必反

cipherpol9, 30F
看起來沒啥

whizz, 31F
煩不煩 tesla=others 誰要釣桶裡的臭酸魚

cospergod, 32F
就還是個輔助系統,怎麼吹都沒用

Brian23, 33F
Voronoi感覺是要抓2個障礙物中間的路徑

CMLeeptt, 34F
[情報] 2020 最新自動駕駛技術報告出爐!以特斯

aki1023, 35F
所以你買了沒?

GORDON2037, 36F
沒人質疑musk,但是是質疑你po的東西,懂?

demo68, 37F
撞車技術?

deeder1, 38F
我越來越懷疑你是特黑裝特粉,故意寫文章、推文引戰來黑

deeder1, 39F
特斯拉的

a9876543245, 101F
但看這些新聞覺得很好啊 噓文的也去找些新聞來發啊

m996360, 102F
發新聞是一回事,但發錯誤訊息卻到處亂咬人是另一回事

m996360, 103F
其他人發特斯拉新聞到沒看到這種現象就是最好的說明

hondasho, 104F
怎麼不先問問用自以為的態度挑戰專業是什麼心態?

flexin, 105F
笑死 噓文的一堆劣幣在眼紅什麼啦 車板只歡迎良幣發文

ISNAKEI, 106F
輔助駕駛 謝謝

KBchen, 107F
這報告不錯耶 感謝分享
※ 編輯: Scape (36.224.217.107 臺灣), 06/05/2020 12:54:59

torso, 108F
其實CV跟人眼判斷的能力還是有差距,更別說還有被adversari

torso, 109F
al attacks的可能性。對ANN有點理解會覺得Musk的講法稍微

torso, 110F
樂觀,不過有夢最美