USA oppgraderer Tesla FSD-etterforskning til høyeste nivå før mulig tilbakekalling

USAs trafikksikkerhetsmyndighet NHTSA har oppgradert etterforskningen av Teslas Full Self-Driving (Supervised) i situasjoner med dårlig sikt til såkalt «engineering analysis» –

USAs trafikksikkerhetsmyndighet NHTSA har oppgradert etterforskningen av Teslas Full Self-Driving (Supervised) i situasjoner med dårlig sikt til såkalt «engineering analysis» – høyeste nivå før et mulig tilbakekallingsvedtak. Oppgraderingen markerer at saken går inn i en mer alvorlig fase, med dypere teknisk vurdering av systemets oppførsel.

Den opprinnelige granskingen ble åpnet i oktober 2024 etter flere rapporterte ulykker i lav synlighet, inkludert en dødsulykke med fotgjenger. Ifølge oppdateringen fra etterforskningen har myndighetene i etterkant identifisert flere lignende hendelser der systemet ikke håndterte forholdene godt nok.

Kritisk punkt: deteksjon og varsling

Kjernen i regulatorens bekymring er ikke bare at ulykker har skjedd, men hvordan systemet reagerte i forkant. I hendelser myndighetene har gjennomgått, skal FSD i flere tilfeller ikke ha oppdaget typiske forhold som svekker kameraytelsen – eller varslet før svært sent i hendelsesforløpet.

NHTSA peker også på at systemet i enkelte saker mistet sporing av forankjørende kjøretøy, eller aldri oppdaget dem korrekt. For førerstøttesystemer som er avhengige av kontinuerlig situasjonsforståelse, er dette en sentral svakhet fordi marginene i dårlig sikt allerede er små.

Uavklarte spørsmål om oppdateringer

Et annet viktig element i saken er at regulatoren mener de ikke har fått all informasjonen de trenger fra Tesla. Myndighetene viser til at Tesla skal ha begynt å utvikle en oppdatering for lav-sikt-problemer allerede i juni 2024, men at det fortsatt er uklart om oppdateringen ble bredt utrullet – og i så fall til hvilke kjøretøy.

Dersom slike avklaringer uteblir, øker risikoen for at prosessen ender med formelle krav om korrigerende tiltak. Engineering analysis brukes nettopp når myndighetene trenger et mer komplett grunnlag for å avgjøre om feilbildet er systemisk og sikkerhetskritisk.

Hva dette betyr nå

Saken kommer samtidig som Tesla jobber med å skalere robotaxi-planene sine i Austin. Nettopp derfor får utviklingen ekstra tyngde: regulatorisk usikkerhet rundt sikkerhet i førerstøttesystemer kan påvirke både produktstrategi, utrullingstempo og tillit i markedet.

For bransjen generelt er signalet tydelig. I 2026 holder det ikke å vise raske iterasjoner av autonomifunksjoner; leverandørene må dokumentere robusthet i krevende forhold, tydelig risikohåndtering og sporbar distribusjon av sikkerhetsoppdateringer. Myndighetenes opptrapping i Tesla-saken kan dermed få konsekvenser langt utover ett selskap, særlig for hvordan «supervised» systemer evalueres fremover.

Kilder