<menu id="08e08"><menu id="08e08"></menu></menu>
  • <xmp id="08e08"><nav id="08e08"></nav>
  • <menu id="08e08"></menu>
    <xmp id="08e08">

    新聞中心

    人機共駕與自動駕駛是如何劃分的?

    作者:華一汽車科技 ?? 來源:www.szmrsd.com ?? 發布時間:2022-04-29 15:37 ?? 閱讀:

    一、人機共駕(Shared Autonomy)
     
    MIT 認為自動駕駛應該分為兩個等級:一、人機共駕(Shared Autonomy);二、全自動駕駛(Full Autonomy)。這樣的分類方式不僅能夠提供有建設性的指導方針,添加必要的限制條件同時還可以對要實現的目標進行量化設定。甚至,對每個類別下要實現的功能、對應的技術需求以及可能遇到的問題都可以劃分出來。
     
    這個原則的核心在于對「人類駕駛員在環」的討論。為了實現對車輛的有效控制,人和機器組成的團隊必須共同保持對外部環境有充分的感知。目標是促使整個行業對「人機共駕」和「全自動駕駛」進行清晰地劃分。
     
     
    人機共駕
     
    需要指出的是,表 I 中的術語「Good」和「Exceptional」用來表示解決 1% 極端案例的優先級順序。遠程操控、V2X 和 V2I 等并非必須的技術,如果要使用的話需要達到特殊的能力要求。
     
    在實現高等級自動駕駛的方法上,傳統思路全程都跳過了對「人」這個因素的考慮,精力主要集中在對地圖、感知、規劃以及表 I 中「全自動駕駛」一欄標注為「exceptional」的技術上。實際來看,考慮到目前的硬件和算法能力,這種解決方案對高精度地圖、傳感器套件的魯棒性要求很高,提供的是較為保守的駕駛策略。
     
    而正如表 I 所述,「以人為中心」的自動駕駛汽車著眼點主要在司機身上。負責控制車輛的依然是人,但前提是要對人的狀態、駕駛方式及之前的人機合作經驗做充分的考量,同時把車輛的轉向、加減速等交由人工智能系統負責。以特斯拉的 Autopilot 為例,之前 MIT 的研究顯示,測試中有超過 30% 的行程都是由這套 L2 級駕駛輔助系統控制完成的。而如果人機共駕應用成功的話,應該能實現超過 50% 的機器控制率。在這次實驗中,MIT 表示無人車系統在接管過程中呈現出了不同程度的能力,而人類駕駛員始終在密切關注著機器的動態,根據感知系統獲得的信息及時預測可能發生的危險。
     
    二、從數據中學習(Learn from Data)
    從表 I 不難發現,這其中涉及的任何一項車輛技術都是數據驅動的,需要搜集大量的邊緣案例數據,利用這些數據持續不斷地優化算法。這個學習過程的目的應該是,通過大量數據實現從傳統的模塊化監督學習向端到端半監督式和無監督學習過渡。
     
    要實現車輛的自動駕駛,傳統的方法,不管是哪個級別,幾乎都不會大量的應用機器學習技術。除了在一些特殊的線下場景,比如 Mobileye 的視覺感知系統要進行車道線識別,或者是通用 Super Cruise 搭載的紅外攝像頭要對駕駛員頭部動作進行預測等。
     
    特斯拉的 Autopilot 可能要比其他方案更進一步,在開發針對第二代硬件平臺 HW 2.0 的軟件算法時,在視覺感知上應用了越來越多監督機器學習的原理。但即便如此,對車輛的絕大部分控制以及對駕駛員狀態監測的實現中,并沒有利用大數據驅動的方式,也幾乎不涉及線上學習的過程。
     
    而在目前業界進行的一些全自動駕駛技術的路測中,機器學習主要應用于環境感知這一環節。更甚的是,這些車輛采集到的數據,無論是從量還是多樣性來看,和具備 L2 級自動駕駛能力的車型相比,遜色不少。
     
    特斯拉 Autopilot 對目標物、車道線的檢測主要依賴機器學習算法進行 | Electrek
     
    MIT 認為,「L2 級自動駕駛系統中機器學習框架使用的數據,從規模和豐富性的角度來看都具有足夠的擴展能力,可以覆蓋多變的、具有代表性、挑戰性的邊緣案例?!谷藱C共駕(Shared Autonomy)要求同時搜集人和車輛的感知數據,挖掘分析后用于監督學習的標注。在 MIT 的實驗過程中,駕駛場景感知、路徑規劃、駕駛員監控、語音識別以及語音聚合都應用了深度神經網絡模型,可以通過搜集到的大量駕駛體驗數據進行持續性的調校和優化。
     
    在進行數據采集時,MIT 表示并不會只局限于單一的傳感器來源,而是對整個駕駛體驗通盤考慮,并將所有的傳感器數據流通過實時時鐘(real-time clock)匯總、聚合,用于多個神經網絡模型的標注。這種方式能夠讓駕駛場景與駕駛員狀態能夠很好地匹配起來,而在聚合的傳感器數據流進行標注工作,使模塊化的監督學習可以在數據規模允許時輕松地向端到端學習過渡。
     
    三、監督人類(Human Sensing)
    這個其實就是我們俗稱的「駕駛員監控」。它指的是對駕駛員的整體心理以及功能特征,包括分心、疲憊、注意力分配和容量、認知負荷、情緒狀態等的不同程度進行多維度的衡量和評估。
     
    目前除了通用 Super Cruise 在方向盤上裝有一枚紅外攝像頭外,不管是搭載了 ADAS 駕駛輔助系統的量產車型,還是在路測的全自動駕駛汽車,絕大部分都沒有提供任何有關駕駛員監控的軟件和硬件。特斯拉 Model 3 其實也裝了一枚車內攝像頭,但目前尚未啟用,具體功用官方表示要等軟件更新后才知道。而基于視覺的解決方案以外,市面上還包括一些準確率不高的方式。比如特斯拉在方向盤上安裝了扭矩傳感器,也有的公司利用監測方向盤是否發生倒轉的方式推斷駕駛員是否出現疲勞情況。
     
    MIT 認為「對駕駛員狀態的感知和監控是實現高效人機共駕的的第一步,同時也是最關鍵的一步?!乖谶^去的二十多年里,來自機器視覺、信號處理、機器人等領域的專家都進行過相關課題的研究,目的都是在探討如何盡可能保證駕乘人員的安全。此外,對駕駛員狀態的監測對如何改善和提升人機交互界面、高級駕駛輔助系統 ADAS 的設計都有很大幫助。隨著汽車智能程度的不斷提高,如何準確、實時地探測到駕駛員的各種行為對打造安全的個性化出行體驗尤為重要。
     
    比較有意思的一點是,從完全的手動駕駛到全自動駕駛,這其中涉及到不同模式切換的問題。一般來說雙手脫離方向盤(handoff)就是一種信號,可能表示系統要做好接管的準備了,但還有什么其他更準確的信息可以用來判斷,可能這也是「駕駛員監控」的研究人員需要持續思考的地方。
     
    四、共享的感知控制(Shared Preception-Control)
    通俗點來說,這相當于為整個自動駕駛系統增加了「一雙眼睛和手」。目的是建立額外的感知、控制和路線規劃機制。即便在高度自動駕駛系統運行狀態下,也要及時地為駕駛員推送信息,將其納入到整個駕駛過程中。
     
    研究全自動駕駛的目的就是為了完美地解決「感知-控制」的問題,考慮到人類的不靠譜和行為的不可測性。所以傳統觀點認為最簡單的辦法就是把人從開車這件事上排除掉,像十幾年前在 DARPA 挑戰賽中獲勝的隊伍一樣。
     
    但和傳統解決思路相反的是,MIT 提出的「以人為中心」的理論將人置于感知和決策規劃閉環中的關鍵位置。因此,整車感知系統就變成了支持性的角色,為人類駕駛員提供外部環境信息,這其實也是為了解決機器視覺本身存在的局限性而考慮的。
     
    在 MIT 的研究中,工作人員圍繞這個原則設計了幾條關鍵的算法。表 II 是其中幾個典型的案例。首先,從視覺上可以看到神經網絡做出的判斷、道路分割的區域以及對駕駛場景狀態的預估的可信程度;其次,將所有的感知數據整合并輸出融合式的決策建議,這樣在表 IV 的場景下就能夠對整體風險進行預估;再次,MIT 一直使用的是模仿學習:將人類駕駛員操控車輛時方向盤的動作作為訓練數據,進一步優化端到端的深度神經網絡;最后,MIT 使用的端到端的神經網絡屬于一個叫做「arguing machines(爭論機器)」框架的一部分,它為主要的感知-控制系統(表 III)提供了來自人類的監督。
     
    這里的「爭論機器框架」是 MIT 2018年提出的一個概念,它將主要 AI 系統與經過獨立訓練以執行相同任務的次要 AI 系統配對。 該框架表明,在沒有任何基礎系統設計或操作知識的情況下,兩個系統之間的分歧足以在人工監督分歧的情況下提高整體決策管道的準確性。
     
    五、深度定制化(Deep Personalization)
    這里涉及到一個「將人類融入到機器中」的概念。通過調整 AI 系統的參數,使其能夠更適合人類操作并呈現出一定程度的定制化。最終的系統應該帶有該駕駛員的行為特征,而不是像剛出廠時的普通配置一樣。
     
    六、不回避設計缺陷(Imperfect by Design)
    對整個汽車工業而言,處于很多原因的考慮,進行工程設計時通??紤]最多的是「安全」,所以要盡可能地講系統錯誤出現的頻率和程度降至最低。換句話說,對自動駕駛而言,完美是目標,這也導致了在進行某些功能設計時,可能會因其「不完美」和「不確定」的性質而放棄這些可能是「必要」的設計。
     
    但是在 MIT 的研究看來,豐富、高效的溝通機制在設計用于實現「人機共駕」的人工智能系統時,是非常必要的因素。就「溝通」而言,系統存在的不完美對人和機器而言,在進行感知模型的交換和融合過程中,能夠提供密集、多樣的信息內容。如果將 AI 系統的不確定性、局限性和錯誤都隱藏起來,這也就錯失了與人建立信任、深度理解關系的機會。MIT 認為,此前業界在設計半自動駕駛系統時所采取的「完美」思路,可能是迄今為止所犯的嚴重錯誤之一。
     
    而在開發「Black Betty」這輛無人車時,MIT 把人工智能系統的局限性通過文字和視覺的形式與人類進行充分溝通。例如將人類和機器對外部世界的感知視覺化,讓駕駛員知曉 AI 系統的局限所在。研究人員表示這種方式相比只是提供「報警」或者「模糊的信號」,是最簡潔有效的人機溝通方式。盡管這種溝通機制要實現還面臨一些技術上的難題,比如視覺化的過程通常對芯片的算力和實時調用的能力要求很高。但值得機器人、自動化以及人機交互等領域共同關注并思考解決的辦法。
     
    七、系統級的駕駛體驗(System-Level Experience)
    目前,汽車工業的工程設計過程中,一個最主要的目標就是「安全」。另一個則是「降低成本」。第二個目標導向的是模塊化、基于零部件的設計思考。但同樣的模式在面向機器人、計算機視覺、機器學習等領域的人工智能系統設計中卻有著迥異的理由。
     
    譬如在設計中重視單一功能(目標物檢測等)的實現,能夠有效測試該算法的合理性并逐步使之得到改善和優化。但是這個過程也難免會把注意力過渡集中在單一功能而忽略了系統的整體體驗。
     
    在過去的幾十年里,「系統工程」、「系統思考」這樣的原則一直在指導著汽車工業產品的輸出。然后,類似的思考卻幾乎沒有應用在自動駕駛汽車的設計、測試和評估過程中。正如 MIT 上面提到的這六大原則,人和機器都不可避免會有缺陷,只有當「人機共駕」這個框架在系統層面上得到考慮時,這些缺陷才可能有機會成為優勢。
     
    對「人機共駕」的永恒討論
    不管短期還是長期來看,其實很難預測自動駕駛的哪條實現路徑最終會成功,而且退一萬步說,你甚至都不知道什么樣的結果算得上是「成功」。在談到研究目的時,MIT 希望一套自動駕駛系統能夠同時滿足「安全」、「愉悅的駕駛體驗」和「提升的出行體驗」這三個要求,而不是彼此妥善折中。而盡管「人機共駕」這個話題在過去的十年里,是包括汽車工業、機器人在內很多領域研究的焦點,但它仍值得更深入的探討。
     
    在今年四月份的上海國際車展上,coPILOT 智能高級駕駛輔助系統,這是一套定位「L2+級」 的自動駕駛輔助系統,目的是提高乘用車的安全性和駕駛舒適性。從產品名稱不難看出,這套系統同樣強調了「人機共駕」的概念。它配備了相應的傳感器和功能,能夠監控駕駛員并在發生潛在危險情況時觸發警告。例如,當發生駕駛員注意力不集中、幾乎完全未將注意力放在路面交通上或顯示出瞌睡跡象等。所以人工智能扮演了「私人駕駛助手」的角色,這個產品理念與 MIT 的研究不謀而合。
     
    到底完美解決駕駛任務比完美管理人類的信任和注意力哪個更難?這是值得深思熟慮的問題。MIT 認為關于這個問題的討論仍不會停止,不管是這篇論文還是「Black Betty」這臺無人測試車,都是基于「人機共駕」研究的成果,MIT 認為它是開發「以人為中心」自動駕駛系統的必由之路。


     

    文章轉載請保留原文網址:http://www.szmrsd.com/news/cjwt/1499.html


    上一篇:車路協同:誰來協同車與路?

    下一篇:沒有了


    液晶儀表 返回列表
    ? 试看A片,看黄a大片爽爽影院动漫,女上男下抽搐一出一进无遮挡
    <menu id="08e08"><menu id="08e08"></menu></menu>
  • <xmp id="08e08"><nav id="08e08"></nav>
  • <menu id="08e08"></menu>
    <xmp id="08e08">