字體:小 中 大 | |
|
|
2022/11/03 13:01:49瀏覽1039|回應0|推薦1 | |
我覺得加上可測距的光達,會比單純使用攝像頭的影像辨識,較為精確也較為安全,所以我不知道為何Tesla要堅持只用攝像頭。 【科普看車用晶片】從自駕車的角度來觀察
過去的汽車基本上是燃油車居多,也沒有自動駕駛功能,因此,所需的晶片都很單純。而這幾年電動車/自駕車發展迅速, 也因此晶片的需求比過去提高很多。目前自駕車的發展仍然是現在進行式,因此,今天我們就從自駕車的角度來分享車用晶片的發展。
▌自駕程度解說(5 Autonomous Levels):
我們先從自動駕駛的Level出發,從每一個自動駕駛Level的差異,我們能看得出來在晶片需求上會有怎麼樣的差異。
➤ level 1跟level 0之間的差別:安全輔助
level 0屬於目前大部分的車,現在在路上跑的車就是level 0,他們有警示系統; 比如:現在偏離車道,快要撞到前方的車子的時候,車內會聽到警示聲音。
level 0與1是差在系統會不會介入,現在level 0車警告偏離車道,警告快要撞到前/後的車子,如倒車雷達,但是系統不會借用警告做出回應,系統不會去轉方向盤,不會去動剎車,就還是屬於level 0。但是在level 1,系統會幫忙踩剎車當系統偵測到車子快要撞到東西。偵測到車道偏移,系統幫忙轉動方向盤。level 1的車子偵測到危險的時候,會主動由系統去轉方向盤,主動踩剎車。
➤ level 2跟level 1之間的差別:系統輔助駕駛
駕駛車子的到底是誰? 是主要的差別。在level 2,駕駛者是汽車,駕駛座上的人只在車上監督系統。這意思是說駕駛人還是需要監控環境,以避免車子在發生電腦無法判斷的狀況時候,駕駛人可以踩下剎車或者轉方向盤。改成手動駕駛。
➤ level 3跟level 2之間的差別:監測系統升級
二級跟三級的差異,其實並不是這麼的大,二級跟三級都是系統在開車,在危險的時候也會需要人介入。level 3監測的各種Sensor,如:image processing,distant detector,雷達或光達的數量會比level 2來的多許多。level two跟level three之間最大的差別是當發生車禍的時候,level 2車禍的責任在於人,但在level 3車禍的責任在於車子的製造商。因此,大部分的車廠並不太喜歡level 3,他們會走直接從level 2直攻到level 4。
➤ level 4跟level 3之間的差別:系統自動駕駛
level 3與4 的差別就很大了,並不像2跟3之間的差別只是肇事的責任的歸屬而已,level 4就是真正可以做到:車子自己開車,完整的自動駕駛境界。人可以在車上睡個覺或者可以在車上看影片,在level 4大部分的情況車子都可以處理,比如說換車道,燈號的辨識…等。
level 4還需要人的地方在電腦還沒辦法處理的狀況,如在沒有燈號的十字路口,橫向車子一直不斷的走,等到有一個缺口,直向車的才有辦法往前走,但如果電腦判斷的話,電腦會等橫向的車子全部走完之後,才會判定安全往前面走,馬路是個叢林,人並不會這樣開車,等到橫向完全沒有車了,可能會在那個路口等20分鐘,還未加入人工智慧的level 4電腦不夠完美的地方。
➤ level 5跟level 4之間的差別:完全無人駕駛
level 5是真正的自動無人駕駛,完全不需要駕駛者,也就拿掉了方向盤,人最少的介入都不需要,電腦已經完全有AI智慧了,也可以處理level 4 不夠完美的部分。現在一般的車廠是從level 2直攻level 4。Google直接往level 5的方向來研發。但是目前因為美國立法關係,level 5的車子還只能在一些獨特的區域裡面測試,來累計資料。
▌晶片和自駕車:自駕程度越高, Sensor數量需求大增
Level 2的Sensor晶片至少要配備相機模組與毫米波雷達; Level3以及以上的Sensor晶片需要增加光達(lidar)、4D成像雷達、高精圖資、還有5G車聯網通訊模組以及AI快速運算電腦。Level 1 與2需要大約10-20顆感應器, 但是到Level 4與5的時候,除了這些Sensor外,還會再增加像CIS影像Sensor晶片、雷達Sensor晶片… 等等。因此,Level 1 與2需要的東西當然4與5也會有,但是差距會變成會有兩倍或者3倍以上的Sensor數量。
當然,光是簡單的講Level 1~Level 5的差別,大家可能還沒辦法很好的想像實際的系統會長什麼樣子,因此最後我們就用Tesla最新發表的自駕系統Tesla Dojo來簡單說明一下~
▌Tesla Dojo 解決方案:
➤ Tesla的視覺演演算法
Tesla透過晶片, 來進行電動車垂直營運的掌控, 從數位進階到複雜的AI演算法的龐大轉變, 需要相匹配的晶片來配合, 很難由外部供應商使用通用的晶片來進行優化。
自動駕駛的四個關鍵模組裡面: 感知預測, 規劃以及控制都會透過Tesla Dojo的晶片來完成。而這4個模組也就是感知/預測/規劃跟控制中: 感知模組(Sensor)是一個關鍵,Tesla使用全視覺演算法,多達8顆相機,直接來截取目前車外的影像,而不是使用光達或是雷達這種方式來測量前後左右的物體、跟車子彼此之間的距離。這些是和其他車廠最大的不同,Tesla希望採取的技術路線是使用相機,接著使用視覺演演算法。
➤ 使用雷達或光達跟相機有什麼不同呢?
光達跟雷達非常接近,但是光達跟相機進行不同的是:他們是測距,同時光達因為精確的測距,可以做3D mapping。但是,他就不是直接把外面的圖像抓進來,這是Tesla Dojo的路線。與其他電動車的不同之處是:他們認為相機便宜而且不需要特殊獨特的技術。因此Tesla完全否定了光達跟雷達這個路線,他們使用RAW的格式作為輸入,因此並不是ISP處理完以後的影像,所以他們強調的是他們視覺演算法。
➤ Tesla Dojo 解決方案
Dojo超級電腦會訓練人工智慧軟體,收集到的大數據輸入Tesla D1晶片來訓練Autopilot神經網路,訓練好的軟體會無線傳輸到特斯拉汽車裡的FSD晶片。
儲存空間需求與大量計算產生的功耗,長久以來Tesla使用NVIDIA的GPUs。但設備需要更多的內存,計算能力使得他面臨許多的限制在擴展與連接方面,於是Tesla決定使用Dojo解決瓶頸。
在AI Day中Tesla透漏,在現實世界中,Tesla Dojo的性能高於Nvidia A100 3-4倍。AI訓練時間也由1個月降到不到1個禮拜。而因為Dojo這樣的超級電腦會需要很多的晶片一起組成,在系統整合方面,Tesla也採用了全新的封裝設計,甚至因為將這麼多的晶片封裝在一起會有電源和散熱的問題,Tesla也將這部分的系統也都一起重新設計了。
關於更多Tesla Dojo的細節,有興趣的人也可以參考最近的Tesla AI Day~
|
|
( 時事評論|財經 ) |