Fred Lambert, pasionat de Tesla și redactor-șef al blogului de vehicule electrice Electrek, susține că sistemul de conducere autonomă al unei Tesla, Full Self-Driving (FSD), „a încercat să-l omoare” în timp ce se afla la volanul unui vehicul Model 3. Dacă nu ar fi intervenit, spune Lambert, ar fi făcut un accident la viteza de autostradă.
La început, nimic nu părea ieșit din comun în timpul călătoriei sale spre Montreal. Lambert a activat FSD și a menținut o viteză constantă de 117 kilometri pe oră. Dar atunci când a încercat să efectueze o depășire, lucrurile au scăpat de sub control.
„Am simțit că FSD Beta virează agresiv spre stânga, spre zona mediană”, și-a amintit Lambert.
Pentru că și-a ținut mâinile pe volan, un protocol de siguranță pe care mulți șoferi Tesla îl ignoră, Lambert a putut „să se îndrepte înapoi spre șosea”.
„A fost foarte înfricoșător, deoarece aproape că am pierdut controlul atunci când am corectat FSD Beta. Treceam pe lângă un vehicul. M-aș fi putut lovi de el dacă aș fi corectat excesiv”, a spus Lambert.
Apoi, Lambert a reactivat conducerea autonomă a mașinii Tesla și eroarea s-a repetat cu doar câteva clipe mai târziu. Atunci când a virat înapoi pe banda din stânga pentru a doua oară cu FSD activat, a scris el, softwareul a „virat din nou la stânga spre zona mediană” și apoi a încercat să treacă cu viteză maximă printr-o întoarcere nemarcată destinată doar vehiculelor de urgență.
Din fericire, Lambert a fost pregătit și a preluat controlul la timp, dar se pare că urmările ar fi putut fi catastrofale, scrie Futurism.
În orice moment, Lambert spune că defecțiunea reflectă modul în care sistemul Autopilot obișnuia să vireze accidental spre o ieșire, fără avertisment, o eroare despre care credea că fusese remediată de mult.
„Tesla Autopilot obișnuia în primele zile să vireze spre ieșiri pe care nu ar fi trebuit să le folosească, dar a fost ceva ce Tesla a remediat cu ceva timp în urmă. Nu mi s-a întâmplat așa ceva de ani de zile”, a spus el.
Mai târziu, el a trimis un raport de eroare către Tesla: „Autopilotul tocmai a încercat să mă omoare, așa că vă rog să remediați”.
El pare să creadă că aceasta este o problemă care decurge din ultimele actualizări ale FSD, ceea ce el descrie drept o „nouă eroare agresivă”. Acest lucru poate fi adevărat, deoarece Tesla a trebuit să anuleze actualizările care au cauzat accidente în trecut, dar poate că este timpul să recunoaștem un adevăr mai amar: această tehnologie, în forma sa actuală, este departe de a fi suficient de sigură pentru a hoinări pe străzile publice.
Cu alte cuvinte, lumea nu ar trebui să fie un loc de joacă pentru versiunile beta de la Tesla, un sentiment care cu greu ajunge la autorități.
Departamentul de Justiție al SUA a început să investigheze Tesla anul trecut pentru marketingul periculos de înșelător al Autopilot, iar California a luat măsuri similare față de companie pentru folosirea termenului de Full-Self Driving. De asemenea, sub presiune, Administrația Națională pentru Siguranța Traficului pe Autostrăzi a intervenit recent pentru a investiga „Modul Elon”, unul foarte nesigur al sistemului Autopilot.
Deocamdată, Lambert are acest sfat: utilizați FSD doar „așa cum este prevăzut”, deși poate ar fi mai bine să nu îl folosiți deloc.
Nori de furtună se adună deasupra premierului Marii Britanii Rishi Sunak
Vizita Papei Francisc în Mongolia nu a stârnit interesul localnicilor
Trei state americane, devastate de uraganul Idalia
Prăbușirea sondei Luna-25 a Rusiei a creat un nou crater pe Lună