تنظیم کننده ایالات متحده می گوید که ویژگی Autopilot تسلا در 13 تصادف مرگبار دخیل است | تسلا


رگولاتورهای ایمنی خودروی ایالات متحده روز جمعه اعلام کردند که تحقیقات آنها در مورد خلبان خودکار تسلا حداقل 13 تصادف مرگبار مربوط به این ویژگی را نشان داده است. این تحقیقات همچنین نشان داد که ادعاهای سازنده خودروهای الکتریکی صحت ندارد.

اداره ملی ایمنی ترافیک بزرگراه (NHTSA) روز جمعه اعلام کرد که طی یک تحقیق سه ساله در مورد ایمنی خلبان خودکار که در آگوست 2021 آغاز شد، حداقل 13 تصادف تسلا را شناسایی کرد که منجر به کشته شدن یک یا چند نفر شد و بسیاری دیگر که منجر به صدمات جدی در آنها شد. که “سوء استفاده از سیستم توسط راننده نقش آشکاری داشت.”

همچنین شواهدی پیدا کرد که نشان می‌دهد «سیستم تعامل ضعیف راننده تسلا عملکردهای مجاز Autopilot را برآورده نمی‌کند و منجر به «شکاف ایمنی حیاتی» می‌شود.

NHTSA همچنین ابراز نگرانی کرد که نام Autopilot تسلا “ممکن است رانندگان را به این باور برساند که اتوماسیون از آنچه هست توانمندتر است و رانندگان را تشویق کند که بیش از حد به اتوماسیون اعتماد کنند.”

تسلا در ماه دسامبر اعلام کرد که بزرگترین فراخوان تا به حال، شامل 2.03 میلیون وسیله نقلیه در ایالات متحده – یا تقریباً تمام وسایل نقلیه آن در جاده های ایالات متحده – برای اطمینان بیشتر رانندگان در هنگام استفاده از سیستم پیشرفته کمک راننده انجام شده است.

پس از بسته شدن اولین بررسی، تنظیم‌کننده‌ها تحقیق دیگری را باز کردند، این بار به بررسی اینکه آیا فراخوان برای نصب پادمان‌های Autopilot جدید کافی است یا خیر.

NHTSA گفت که پس از یافتن مشکلات مربوط به تصادفات پس از نصب وسایل نقلیه با به‌روزرسانی نرم‌افزار فراخوان، «و نتایج آزمایش‌های قبلی NHTSA از خودروهای اصلاح‌شده»، تحقیقات دیگری را آغاز می‌کند.

NHTSA گفت، بررسی فراخوان خودروهای مدل Y، X، S، 3 و Cybertruck در ایالات متحده را پوشش می‌دهد که مجهز به Autopilot هستند و بین سال‌های مدل 2012 و 2024 تولید شده‌اند.

این آژانس گفت که تسلا به‌روزرسانی‌های نرم‌افزاری را برای رسیدگی به مشکلاتی که به نظر می‌رسید در آن وجود دارد منتشر کرد، اما آنها را “بخشی از فراخوان یا تصمیم دیگری برای رفع نقصی که خطر ایمنی غیرمنطقی دارد” قرار نداد. NHTSA همچنین به بیانیه تسلا استناد کرد که “بخشی از راه حل به مالک نیاز دارد که انتخاب کند و به راننده اجازه دهد به راحتی به عقب برگردد.”

تسلا در ماه دسامبر گفت که سیستم کنترل نرم افزاری Autopilot “ممکن است برای جلوگیری از سوء استفاده راننده کافی نباشد” و می تواند خطر تصادف را افزایش دهد.

تسلا بلافاصله به درخواست برای اظهار نظر پاسخ نداد.

در ماه فوریه، Consumer Reports، یک سازمان غیرانتفاعی که محصولات و خدمات را بررسی می کند، گفت که آزمایش به روز رسانی Autopilot تسلا نشان داد که این تغییرات به اندازه کافی به بسیاری از نگرانی های ایمنی مطرح شده توسط NHTSA پاسخ نمی دهد و از آژانس خواست که خودروساز را ملزم به انجام “گام های قوی تر” کند. .” ، گفت که فراخوان تسلا “به جای پرداختن به مسائل واقعی به ناراحتی های جزئی رسیدگی می کند.”

اتوپایلوت تسلا به گونه ای طراحی شده است که به خودروها اجازه می دهد تا به طور خودکار در خط خود هدایت کنند، شتاب بگیرند و ترمز کنند، در حالی که خلبان خودکار پیشرفته می تواند به تغییر خط در بزرگراه کمک کند، اما خودروها را خودمختار نمی کند.

یکی از اجزای اتوپایلوت فرمان است که سرعت یا مسافت تعیین شده را حفظ می کند و برای حفظ خودرو در خط خود کار می کند.

تسلا در ماه دسامبر گفت که با تجزیه و تحلیل NHTSA مخالف است، اما به‌روزرسانی نرم‌افزاری را ارائه خواهد کرد که «شامل کنترل‌ها و هشدارهای اضافی برای افرادی است که قبلاً در خودروهای آسیب‌دیده هستند تا راننده را تشویق کند تا مسئولیت مستمر خود را انجام دهد. برای هر بار رانندگی فرمان درگیر است.”

آن کارلسون، مقام ارشد آن زمان NHTSA در ماه دسامبر گفت که تحقیقات نشان می‌دهد که برای درگیر نگه داشتن رانندگان هنگام استفاده از Autopilot، باید کارهای بیشتری انجام شود. کارلسون گفت: “یکی از چیزهایی که ما تعیین کرده ایم این است که رانندگان همیشه هنگام روشن بودن این سیستم توجه نمی کنند.”

NHTSA در آگوست 2021 پس از کشف بیش از دوازده تصادف که در آن وسایل نقلیه تسلا با وسایل نقلیه اضطراری ثابت برخورد کردند، تحقیقات خود را آغاز کرد.

علاوه بر این، از سال 2016، NHTSA بیش از 40 تحقیق ویژه در مورد تصادفات تسلا با استفاده مشکوک از سیستم های راننده مانند Autopilot با 23 مورد مرگ ناشی از تصادف گزارش کرده است.

فراخوان تسلا شامل افزایش اهمیت نشانه های بصری و غیرفعال کردن کنترل خودکار در صورت عدم پاسخگویی رانندگان به هشدارهای بی توجهی و بررسی های اضافی هنگام فعال شدن کنترل خودکار است. تسلا اعلام کرد در صورت شناسایی سوء استفاده قابل توجه، استفاده از Autopilot را به مدت یک هفته محدود خواهد کرد.

در ماه اکتبر، تسلا اعلام کرد که وزارت دادگستری ایالات متحده احضاریه های مربوط به ویژگی های رانندگی کامل خودران (FSD) و خلبان خودکار را صادر کرده است. در اکتبر 2022، رویترز گزارش داد که تسلا تحت تحقیقات جنایی قرار دارد.

در فوریه 2023، تسلا 362000 خودروی آمریکایی را برای نسخه بتا به‌روزرسانی نرم‌افزار FSD فراخوان داد، زیرا NHTSA اعلام کرد این خودروها به درستی با قوانین ایمنی ترافیک مطابقت ندارند و ممکن است باعث تصادف شوند.

دیدگاهتان را بنویسید