O Tesla Cybertruck, despre care se presupune că a funcționat în modul de conducere autonomă, a fost implicată într-un accident spectaculos în Houston, demonstrând încă o dată limitele sistemelor avansate de asistență a șoferului (ADAS). Incidentul, surprins de o cameră de bord, arată momentul în care vehiculul a ratat o curbă, aproape că a ieșit de pe un pod și apoi s-a izbit violent de un parapet. Șoferița, o mamă cu un copil, susține că a suferit multiple leziuni în urma accidentului.
Problema celor „patru secunde” și riscul sistemelor semi-autonome
În centrul discuției nu se află doar cine ținea volanul la momentul impactului, ci întreaga secvență care a dus la accident. Conform informațiilor disponibile, sistemul de conducere autonomă (FSD) ar fi fost dezactivat cu patru secunde înainte de impact. Însă acest aspect, invocat de apărătorii Tesla, nu demonstrează neapărat nevinovăția FSD. Din contră, ar putea sugera că șoferița a încercat să preia controlul abia când era deja prea târziu pentru a evita accidentul.
Problema fundamentală, subliniată de criticii tehnologiei FSD, este că aceste sisteme funcționează suficient de bine pentru a induce încredere, dar nu suficient de bine pentru a elimina necesitatea unei intervenții umane aproape instantanee. Asta plasează șoferul într-o poziție dificilă: nu mai este complet implicat, dar i se cere să devină pilot total în momentul în care lucrurile scapă de sub control.
Raffi Krikorian, fostul șef al programului de mașini autonome de la Uber, a relatat experiența sa neplăcută cu FSD, evidențiind capcana încrederii progresive. Tehnologia este suficient de bună încât șoferii se relaxează, iar când sistemul greșește, timpul de reacție este adesea insuficient.
Tesla și răspunderea: o strategie sub presiune
Tesla și Elon Musk au o strategie de apărare bine definită. Compania se bazează pe termenii legali ai sistemului Level 2 și pe responsabilitatea șoferului. Această abordare devine tot mai greu de susținut, mai ales în contextul în care FSD este vândut și perceput public mult mai ambițios decât un simplu asistent de menținere a benzii.
Autoritățile de reglementare, inclusiv NHTSA, au intensificat investigațiile privind FSD. Agenția analizează modul în care sistemul gestionează condițiile dificile de vizibilitate și maniera în care avertizează șoferul înaintea unor situații periculoase. Mass-media relatează, de asemenea, despre investigații privind încălcările de trafic și accidentele asociate cu FSD.
Un verdict nefavorabil pentru Tesla, de 243 de milioane de dolari, într-un proces legat de un accident fatal cu Autopilot, sugerează o abordare mai strictă a instanțelor față de responsabilitatea sistemelor semi-autonome.
Recenta apariție a accidentului Cybertruck, cu presupusa implicare a FSD, readuce în prim-plan limitele tehnologiei și dezbaterile legate de siguranța sistemelor autonome. Incidentul ilustrează, încă o dată, complexitatea răspunderii în cadrul acestor tehnologii.
