Tesla se simte „obligată moral” să continue îmbunătățirea sistemului autopilot
Constructorul auto american Tesla Inc a declarat că are „obligația morală” de a continua să îmbunătățească sistemul său de asistent pentru șofer autopilot și de a-l pune la dispoziția mai multor consumatori, pe baza datelor care au arătat parametri de siguranță mai puternici când a fost activat.
Ca răspuns la o investigație a Washington Post privind accidentele grave în care a fost implicat autopilotul pe drumuri unde funcția nu putea funcționa în mod fiabil, compania Tesla Inc a declarat că datele sale au arătat că aceasta a salvat vieți și a prevenit rănirea, potrivit Reuters.
Raportul Post a arătat că ziarul a identificat cel puțin opt accidente între 2016 și 2023 în care autopilotul ar fi putut fi activat în situații în care nu a fost proiectat pentru a fi utilizat și a spus că Tesla a luat puține măsuri definitive pentru a restricționa utilizarea sa în funcție de geografie, în ciuda faptului că are capacitatea tehnică de a face acest lucru.
Sistemul autopilot al Tesla, de 10 ori mai sigur decât media
Autopilotul este „destinat utilizării pe autostrăzile cu acces controlat” cu „un separator central, marcaje clare ale benzilor de circulație și fără trafic transversal”, a precizat Post, adăugând că manualul de utilizare al Tesla îi sfătuiește pe șoferi că tehnologia poate să se clatine și pe drumuri dacă există dealuri sau curbe ascuțite.
Investigația Post „se bazează pe cazuri de utilizare greșită de către șoferi a funcției de asistență a șoferului autopilot pentru a sugera că sistemul este problema”, a declarat Tesla într-o postare pe platforma de socializare X, adăugând că autopilotul a fost de aproximativ 10 ori mai sigur decât media din SUA și de 5 ori mai sigur decât o Tesla fără tehnologia activată.
Șoferul, responsabil pentru vehicul în orice moment
Compania a reiterat, de asemenea, că șoferul a rămas responsabil pentru controlul vehiculului în orice moment și că este notificat cu privire la această responsabilitate.
The Washingtown Post a precizat că organismele de reglementare, cum ar fi Administrația Națională pentru Siguranța Traficului pe Autostrăzi din SUA (NHTSA), nu au adoptat reguli pentru a limita tehnologia la locurile în care trebuie folosită, în pofida deschiderii unor investigații asupra software-ului după ce au fost identificate mai multw accidente în care vehiculele Tesla au lovit vehicule de urgență staționate.
Știau că vehiculele aveau un sistem autopilot defect?
NHTSA nu a răspuns solicitării de comentarii din partea Reuters în afara orelor normale de lucru. Agenția a declarat pentru Washingtown Post că ar fi prea complex și ar necesita prea multe resurse pentru a verifica dacă sisteme precum Autopilot au fost folosite în condițiile pentru care au fost proiectate și, potențial, nu ar rezolva problema.
În noiembrie, un judecător din Florida a găsit „dovezi rezonabile” că directorul executiv al Tesla, Elon Musk, și alți manageri știau că vehiculele producătorului auto aveau un sistem autopilot defect, dar au permis totuși ca mașinile să fie conduse în condiții de nesiguranță.
Hotărârea a venit ca un eșec pentru Tesla, după ce compania a câștigat două procese de răspundere pentru produse în California în acest an în legătură cu sistemul Autopilot.