電機(jī)控制器 | 叉車控制器 | 電動車配件 | 其他              

自動駕駛為什么會要了你的命

2019-03-26

人們對自動駕駛的期盼從上古時(shí)期就開始了,人們每隔一段時(shí)間就會幻想自動駕駛時(shí)代來臨的生活:從家里出來,車竟已經(jīng)在樓下等待。坐到車?yán)铮囎约簳摺H俗诤笈趴磿x報(bào),到了目的地之后下車啥也不用管,車自己就走了,全程突出一個(gè)優(yōu)雅。雖然這種愿望現(xiàn)在就已經(jīng)實(shí)現(xiàn)了,它的名字叫滴滴專車,但人是感性的動物,說不上來為什么,就覺得自動駕駛的車更酷,這種心態(tài)我多少也算能理解一些。

圖1

人們想象中的自動駕駛:感覺自己很帥

然而,上文講的是想象中的自動駕駛?,F(xiàn)實(shí)中的“自動駕駛”是什么樣子,我替大家試了一把。前些日子我開特斯拉Model 3,次體驗(yàn)了被特斯拉粉絲吹爆的“自動駕駛”Autopilot功能。

開啟后,方向盤居然自己微微地修正方向,我緊張地問坐在副駕的車主:“這樣就行了?”車主說:“嗯,這樣它自己就會開了?!?/p>

我仍然戒備心很強(qiáng),雙手用不影響它自主轉(zhuǎn)向的力量輕輕捏住方向盤,隨時(shí)準(zhǔn)備接管。誰能想到,車子居然真的很省心地往前走!這種體驗(yàn)是前所未有的。

走了200米左右,前面是紅燈。正前方的一輛大貨車已經(jīng)停車了。我腳預(yù)備在剎車上,問車主:“它會自己停下來嗎?”得到肯定的答復(fù)后,車在我的懷疑和不安中穩(wěn)穩(wěn)停住了。車主見狀露出了老父親般的微笑。

燈綠了以后,我再次詢問:“它會自動跟車前行對吧?”車主答曰不清楚,應(yīng)該是,你試試唄。

大貨車往前走了,Model 3也穩(wěn)穩(wěn)地起步,令人心生歡喜。走了15米左右,剛剛跨過停車線,突然方向盤一邊震動一邊瘋狂左右轉(zhuǎn)動,大屏幕有紅色閃爍,隨之而來的是突然剎車。所幸,本身路口剛起步速度就很慢,加上我一直沒有放下戒備,立刻接管了車輛。我們哈哈大笑,一種高等智慧生物對弱智機(jī)器的嘲笑。地上的車道線剛一消失,車立刻不知所措了。路口當(dāng)然沒有車道線了,特斯拉的“自動駕駛”只在兩個(gè)紅綠燈之間可用么?

圖2

車剛駛過停車線就懵了

雖然我愛開車,但我對自動駕駛也是隱隱有些期待的。畢竟身為一個(gè)人類,總會有想小睡或者想玩手機(jī)的情況,這個(gè)時(shí)候車如果可以自動駕駛,那我就可以在保證安全的前提下刷微博聊微信了。既能我自己開,又能自動開,多一個(gè)選擇,總不算壞事。

連像我這樣熱愛開車的人都期待自動駕駛,不難想象那些車技較差的人、懶惰的人、科技宅等等群體對自動駕駛的熱情有多高漲。特斯拉又懂宣傳又會造(吹)勢(牛),再加上抓住了老百姓對自動駕駛的期待心理,在宣傳上勢如破竹。據(jù)我觀察,互聯(lián)網(wǎng)上有約10%的人表示特斯拉的自動駕駛技術(shù)是牛逼的,還有大概85%不明真相的人認(rèn)同這一說法。想象一下,如果你身邊所有人都認(rèn)為曾小賢是全中國好的男人,你作何感想?我聽到大家說“特斯拉自動駕駛技術(shù)強(qiáng)”的時(shí)候,心態(tài)也是一樣的。

圖3

右一為曾小賢

造成這種錯(cuò)誤認(rèn)識的主要原因是特斯拉敢于把尚未成熟的技術(shù)大規(guī)模交付給用戶使用。實(shí)際上特斯拉的自動駕駛技術(shù)差不多是墊底的水平。別人的自動駕駛做到80分了還不敢拿出來,特斯拉做到50分就拿出來顯擺。大家一看全場只有特斯拉交卷了,加上很多壞逼特吹拼命吹捧特斯拉自動駕駛,導(dǎo)致很多人被騙,以為特斯拉,厲害。

圖4

Autopilot功能開啟

經(jīng)過我的深度體驗(yàn),被稱為“自動駕駛”的特斯拉AutoPilot2.0駕駛輔助程序存在大量bug,每一個(gè)都可能要了車主的命。有些bug頻繁出現(xiàn),有些bug偶然出現(xiàn),讓人難以摸清規(guī)律。技術(shù)可以試錯(cuò),生命不能重來,Autopilot表現(xiàn)如此不成熟,如此變幻莫測,怎么能放在車上大規(guī)模使用呢?還在鼓吹特斯拉自動駕駛厲害的人或許應(yīng)當(dāng)以危害社會的罪名抓起來。Autopilot開啟期間遇到的Bug總結(jié)如下:

1. 在路況條件良好、車道線鮮明的情況下,給車下達(dá)變道的指令,車不聽;

2. 在路況條件良好、車道線鮮明的情況下給車下達(dá)變道的指令,車會突然像醉漢一樣在兩條車道之間以S形路線行駛,非常危險(xiǎn);

3. 在路況條件良好、車道線鮮明的情況下指令式自動變道無法駛?cè)肴肟?,又或者無法駛出出口;

4. 在駛過路口時(shí),由于路口沒有車道線,車就像瘋了一樣不知所措,左拐右拐;

5. 城市低速排隊(duì)跟車的情況下,如果前方有車并入Model 3所在的車道,車輛居然不自動減速,直接撞上去!

6. 高速公路上,左右沒車,車道線也很清楚,路況好得不能再好了,此時(shí)特斯拉所謂的“自動駕駛”居然連走直線都做不到,它會在車道內(nèi)一會往左偏一會往右偏,原因不明;

7. 如果前面道路變窄,比如三車道合為二車道,那么特斯拉不會自動并入正確的前方車道中,而是直接選擇撞墻;

8. 遇到前方車道分流的情況下不會選擇左右方向,會直接向著分道隔離墩撞去;

9. 在路況條件良好、車道線鮮明的情況下,車道上的一些障礙物特斯拉是識別不出來的,不減速,不躲避,直接撞(之前國內(nèi)那個(gè)死亡的特斯拉車主就是這么撞上清掃車的);

10. 假設(shè)前方突然出現(xiàn)緊急情況,特斯拉前面的車發(fā)現(xiàn)險(xiǎn)情立刻變道躲避,那特斯拉是不會跟著躲的,也不會減速,而是直勾勾對著前面的障礙物撞上去。

所以我在這里懇求部分特斯拉粉絲,不要再大放厥詞誤導(dǎo)公眾了?,F(xiàn)階段的特斯拉Autopilot和“智能”“先進(jìn)”“好用”都不沾邊,非要給個(gè)定義的話我覺得應(yīng)該是“危險(xiǎn)”。你們喜歡特斯拉沒問題,你們沒開過車也不丟人,但胡說、忽悠人、禍害人,就太不應(yīng)該了。

從整個(gè)行業(yè)來看,特斯拉的自動駕駛技術(shù)是墊底的水平。特斯拉更敢于拿消費(fèi)者的性命和本公司的聲譽(yù)冒險(xiǎn),這和老牌汽車大廠的謹(jǐn)慎態(tài)度截然相反。而且事實(shí)證明特斯拉的這種冒險(xiǎn)策略是正確選擇,你看,撞死好幾個(gè)車主了,但網(wǎng)絡(luò)上仍然洋溢著對特斯拉自動駕駛的贊美聲。

圖5

2019年NR的報(bào)告指出,特斯拉的自動駕駛處于墊底的位置

和其他公司相比,特斯拉由于不太在乎車主死活而使用了更激進(jìn)更冒險(xiǎn)的策略,居然因此得益,被認(rèn)為是自動駕駛技術(shù)好的;而市面上那些有實(shí)力又負(fù)責(zé)任的公司,卻因?yàn)橹?jǐn)慎和負(fù)責(zé)而默默無聞,這像話嗎?

2016年,一位年輕的中國特斯拉車主在高速上行駛時(shí)開啟了特斯拉的Autopilot功能,毫無減速地追尾了一輛清掃車,車主斃命。這么大這么醒目的一輛車,特斯拉沒識別出來。

圖6

這位中國車主去世后不久,美國佛羅里達(dá)州一位名叫布朗的車主也突然去世了,他坐在一輛“自動駕駛”的Model S里,毫無減速地鉆進(jìn)了一輛半掛車車底。

圖7

布朗生前是一位特斯拉的忠實(shí)粉絲,他曾對這車的自動駕駛系統(tǒng)贊不絕口。布朗曾在網(wǎng)上炫耀過特斯拉自動躲避大貨車的視頻,這條視頻還被馬一龍轉(zhuǎn)推過。事故發(fā)生時(shí),布朗正在車內(nèi)享受不用看路也不用扶方向盤帶來的快感,然后就享年45歲了。特斯拉對此事專門發(fā)表聲明,聲稱事故發(fā)生的原因是卡車是白色,而天空又比較亮,導(dǎo)致特斯拉壓根沒發(fā)現(xiàn)有個(gè)巨大的卡車橫在車前,所以鉆進(jìn)去了。

圖8

美國加州一起特斯拉“自動駕駛”發(fā)生的事故,注意地面上發(fā)白的東西是泡沫滅火劑,不是雪。

去世的布朗先生很能代表一些特吹的心態(tài):傻。平心而論,人都會新奇的東西所吸引,但因?yàn)橐粯訓(xùn)|西很新奇就失去了基本的判斷力,這不應(yīng)該;接下來居然還決定拿自己的命冒險(xiǎn),就更不應(yīng)該了。很多特吹一看到有人開著特斯拉在高速上睡覺,就“高潮”了,認(rèn)為這是特斯拉“?!钡蔫F證,我實(shí)在不理解。你愿意的話也可以去鐵軌上睡覺啊,幸運(yùn)的話火車也軋不死你,火車離地間隙挺高的。但這除了證明當(dāng)事人不要命,還能說明啥?

特斯拉這個(gè)“自動駕駛”也是一樣的道理。人習(xí)慣了自己扶方向盤,踩油門剎車。突然有你坐在車?yán)锇l(fā)現(xiàn)方向盤自己會動,不踩剎車車自己會停,立刻就被吸引,覺得這就是牛逼,“高科技”來形容它都不夠,得用“黑科技”才行。大多數(shù)特吹選擇跑到社交平臺上贊美特斯拉的偉大,個(gè)別愣頭青居然以身試法,膽敢跑到高速公路上探尋Autopilot功能的極限,結(jié)果形成了親者痛仇者快的慘案。

圖9

部分特斯拉粉絲真是令人嫌棄,言語之間透露著一種“摳腳傻宅”的氣息,比如上面這個(gè)特吹。Autopilot什么時(shí)候增加了“通過制造交通事故來給亂并線的人上一課”功能了?亂并線輪得著私人執(zhí)法嗎?就算特吹可能覺得自己的新車剮蹭了無所謂,自己很帥,那后面被你們堵住的成百上千位車主的感受你們又考慮到了么?

明明是Autopilot功能“弱智”,識別不了前方有車,到特吹這里居然成了“馬一龍好樣的”。下次前面如果有個(gè)滿載的后八輪自卸車并線,不知道你們的執(zhí)法先鋒Model 3會不會也撞上去。到時(shí)候大車一慌車一翻,幾十噸重量把你連人帶車壓成片兒,你就把“馬一龍‘牛逼’”刻在墓碑上吧。

圖10

新特吹:兩次差點(diǎn)出車禍也不影響吹特斯拉

再看這個(gè),在擁堵的四環(huán)上開啟Autopilot,人為給大家添堵,還好意思發(fā)微博炫耀。我真替你周圍的車輛痛心,四環(huán)路是給你做試驗(yàn)用的嗎,人家Autopilot自己都說自己是測試版,你們這邊已經(jīng)一會悠閑一會爽的了。兩次人為干預(yù)剎車啥意思,意思就是有兩次車應(yīng)該自動停卻沒有自動停,導(dǎo)致車主不得不介入,說白了就是兩次差點(diǎn)出車禍。

就這還吹呢?

粉絲弱智和特斯拉這個(gè)公司也有很大關(guān)系。為什么說特斯拉這個(gè)公司缺德呢,特斯拉的自動駕駛技術(shù)雖然很差,但卻非常愿意為了宣傳和造勢夸大其詞,給用戶造成嚴(yán)重的誤導(dǎo)。

圖11

等到特斯拉車主真的開著Autopilot追尾大貨車,沒了命,特斯拉又會退縮。出一個(gè)避重就輕的聲明,拿出免責(zé)條款,聲稱車主沒有按照規(guī)定操作,把責(zé)任撇得干干凈凈。棒的是,自然不需要擔(dān)心死去的車主站出來指責(zé)特斯拉當(dāng)時(shí)的宣傳如何夸大其詞。

現(xiàn)階段所謂“自動駕駛”為什么會要了你的命,是因?yàn)樵谀慊钪臅r(shí)候,它告訴你它特牛逼,車上有什么樣的雷達(dá),多少個(gè)攝像頭,能識別這個(gè)識別那個(gè),還能躲避事故,強(qiáng)大得一塌糊涂。等你自動駕駛期間鉆大貨車底下沒命了,它又告訴你因?yàn)榇筘涇囀前咨?,天空是淺藍(lán)色的,所以你死了。

出事后,特斯拉把官網(wǎng)上“自動駕駛”偷偷改成了“自動輔助駕駛”。吹牛的是你,吹完偷偷改名稱的也是你,便宜全叫特斯拉賺了。至于那些受到誤導(dǎo)而死去的車主,就讓他們隨風(fēng)去吧。

圖12

就算沒有這么多莫名其妙的bug,Autopilot仍然不好用。稍微動腦子想想就知道這玩意有多反人類:不用你控制車輛,但居然要全程手放在方向盤上并且關(guān)注路面,這不是有病嗎?精力和肢體不去使用卻隨時(shí)待命,這不比自己開車更累嗎?這個(gè)破玩意的作用不就是誘導(dǎo)駕駛員分心嗎?人性就是這樣的,Autopilot讓人麻痹大意,產(chǎn)生錯(cuò)覺,然后在真正疏忽的時(shí)候發(fā)生致命危險(xiǎn)。

就像如果給你一把“自動菜刀”,切肉的時(shí)候用手推著肉往刀刃底下送,刀自己會切。但要求你必須時(shí)刻關(guān)注菜刀,如果要切到手了需要立刻控制住菜刀,那這個(gè)所謂的自動菜刀誰愿意用,誰敢用?

所以我想表達(dá)的是,自動駕駛的意思本來就應(yīng)該是字面意思:車自己能駕駛,不用人管。需要人全程關(guān)注并隨時(shí)接管的,不叫自動駕駛,叫“廢物”,叫添亂。這些網(wǎng)絡(luò)造車公司為了造勢為了概念什么謊都敢撒,什么牛都敢吹,求求你們干點(diǎn)“人事”吧。

實(shí)際上,我理解的自動駕駛并不僅僅是技術(shù)層面的描述,而更指代一種交通生態(tài)。簡單來說,在這個(gè)交通生態(tài)中需要保證以下幾點(diǎn):

1. 自動駕駛的交通參與者在自動駕駛道路中具有路權(quán);

2. 自動駕駛的交通參與者彼此互聯(lián),對道路上其它所有自動駕駛參與者的位置、行駛狀態(tài)和預(yù)期行為充分知曉,并具有相同行為準(zhǔn)則為基礎(chǔ)的算法;

3. 法律和道德層面對于自動駕駛行為具有明確的責(zé)任劃分和保障;

4. 對于底層算法和通信具有安全的保障,防止被不法分子侵入和控制。

只有在這種情況下真正的自動駕駛才能夠成立,這更加依賴于交通規(guī)劃、法律的完善、算法的共通。而真正技術(shù)本身在其中只占很小的一部分。且真正的技術(shù)推動者應(yīng)該是行業(yè)或政策層面的宏觀導(dǎo)向,不是當(dāng)前各個(gè)廠家各自為戰(zhàn)的局面。

當(dāng)前的自動駕駛研究其實(shí)很大程度上偏離了正確的方向:不是在研究未來理想化的交通生態(tài),而是在針對當(dāng)下復(fù)雜的交通狀態(tài)研究針對性解決措施和方案,那無疑南轅北轍。所以我們不是說特斯拉這個(gè)Autopilot或其它同行廠家的L2、L3級自動駕駛不好、不對,而是你不能夠把它放在當(dāng)下的交通生態(tài)中定義為“自動駕駛”,這離真正意義上的自動駕駛根本不是一個(gè)概念。這不是一兩個(gè)廠家靠給車上加幾個(gè)攝像頭和雷達(dá)就能夠?qū)崿F(xiàn)的,這之間的差距就像銀河系和仙女星系一樣遠(yuǎn)。

特斯拉還經(jīng)常吹“特斯拉Autopilot無人駕駛每334萬英里發(fā)生一次事故,人類駕駛每192萬英里發(fā)生一次事故”這證明Autopilot更安全,這真是純粹的胡說了。我有時(shí)候很討厭特斯拉就是這個(gè)原因,仗著大家不懂,胡說。為什么說特斯拉是胡說,因?yàn)锳utopilot開啟是有條件的,它通常只在路況良好的高速公路上開啟,這種能夠開啟Autopilot的情況本身就是非常理想的道路狀況。這時(shí)候的行駛安全性本身就比不具備開啟Autopilot條件的那些復(fù)雜的周遭路況要強(qiáng)得多。大家平時(shí)開車啥環(huán)境都有,鬧市、堵車、小巷、胡同、院子、停車場…條件和環(huán)境都不一樣,你特斯拉怎么好意思拿二者放在一起比呢?如果在這些繁雜路況上能夠強(qiáng)行開啟Autopilot讓這車自己走的話,事故率早上天了,行人都不敢過馬路了,生怕沒被識別出來。所以,Autopilot并不安全。

如果按照特斯拉的宣傳按邏輯,馬一龍可以用自己家的火箭把一輛特斯拉發(fā)射到太空里去,繞著地球使勁轉(zhuǎn),轉(zhuǎn)10圈,一圈4萬多公里,這樣特斯拉的無事故里程蹭蹭漲。如果還嫌慢可以一次發(fā)射10輛特斯拉,刷數(shù)據(jù)更快。

人開車,自己要命。機(jī)器開車,命是何物?

有人說你王銅根就是不接收新事物,就是無腦黑,我照著你臉來一腳。上面幾千字的論述你看到哪里去了?其實(shí)即使自動駕駛真的成熟了,我也不太會去使用,因?yàn)槲蚁矚g自己開車。但我仍然殷切期盼真正的自動駕駛成熟且推廣。因?yàn)榇蠹叶贾老喈?dāng)多的中國人“不配”開車,他們在駕?;煲粋€(gè)證或者買一個(gè)證就上街“禍害”人了,要么慢得像烏龜,要么橫沖直撞像螃蟹,要么開著遠(yuǎn)光。如果自動駕駛普及了,是不是交通效率會有一個(gè)巨大的提升,到那個(gè)時(shí)候我們這些駕駛文明車技又好的駕駛員們豈不是要開心死了。

我不反對自動駕駛,我反對的是拿消費(fèi)者當(dāng)試驗(yàn)品,拿無辜路人的生命當(dāng)兒戲;我反對的是明明技術(shù)不行卻硬要裝行業(yè)老大;我反對的是虛假宣傳,夸大其詞,誤導(dǎo)消費(fèi)者。是時(shí)候揭穿特斯拉的“自動駕駛”神話了,就那水平,應(yīng)該老老實(shí)實(shí)墊底,不應(yīng)該放任其繼續(xù)吹牛害人。

上一篇:
下一篇: