سیستم اتوپایلوت تسلا باعث مرگ 11 نفر شد!!!
سیستم اتوپایلوت تسلا باعث مرگ 11 نفر شد!!!
نتایج تحقیقات مرکز ملی ترافیک بزرگراه های آمریکا(NHTSA) در مورد سیستم اتوپایلوت تسلا به تازگی منتشر شد.
مرکز ملی ترافیک بزرگراه ها در مورد سیستم رانندگی خودکار تسلا معروف به Autopilot تحقیقات بزرگی را از یک سال اخیر آغاز کرد. بازرسان(NHTSA) پس از بررسی صدها گزارش تصادف از جمله ۱۳ حادثهی مرگبار که منجر به کشته شدن 14 نفر شد، این تحقیقات را به پایان رساندند. بازرسان این سازمان معتقدند که این تصادفات بر اثر استفادهی نادرست رانندگان از این سیستم رخ داده است. البته در گوشه دیگری از این گزارش آمده است:”سیستم هشدار دهنده راننده برای قابلیت های عملیاتی مستقل سیستم اتوپایلوت عملکرد صعیفی داشت.” به زبان ساده تر، نرم افزار اولویت را بر توجه راننده قرار نداد. به عقیده بازرسان سرنشینان خودرویی که از حالت تمام خودکار سیستم Autopilot این شرکت استفاده می کردند، به اندازه کافی به رانندگی دقت نداشتند زیرا، سازنده به آنها نگفته بود که در حین رانندگی باید به جاده دقت کنند.
در این تحقیقات 1000 گزارش تصادفی که از ژانویه 2018 تا آگوست 2023 رخ داده بود، مورد بررسی قرار گرفت. این تصادفات در مجموع منجر به 29 فوت شد. البته NHTSA اعلام کرد که از این تعداد در 489 مورد داده کافی برای ارزیابی وجود نداشت. در بعضی از این تصادفات، راننده طرف مقابل مقصر بود یا اینکه راننده از سیستم اتوپایلوت استفاده نکرد.
اما نکته نگران کننده ای که در این گزارش وجود داشت، 211 تصادفی بود که خودروی تسلا از سمت جلو با یک ماشین یا مانع دیگر برخورد کرده بود. این تصادفات به نوعی با سیستم خودکار Autopilot یا FSD (تماماً خودران) ارتباط داشت. از این تعداد حدود 14 مورد به فوت و 49 مورد به مصدومیت جدی منجر شد.
این سازمان متوجه شد که در ۷۸ مورد از این تصادفات، رانندگان علیرغم داشتن حداقل ۵ ثانیه فرصت برای بروز واکنش مناسب، از روش ترمز گرفتن یا تغییر مسیر برای جلوگیری از برخورد استفاده کردهاند. به عبارت دیگر، رانندگان زمان کافی برای عکسالعمل داشتهاند اما اقدام مناسبی انجام ندادند.
همین جاست که موضوع عملکرد ضعیف نرم افزار Autopilot مطرح می شود. به عقیده NHTSA، رانندگان بیش از حد به سیستم اتوپایلوت اعتماد داشتند و فکر می کردند که این سیستم می تواند هر نوع خطری را مدیریت کند. اما زمانی متوجه عملکرد ضعیف آن شدند که دیگر دیر شده بود.
این سازمان نوشت: «تصادفاتی که راننده دیر واکنش نشان داد یا اصلاً واکنشی انجام نداد، در تمام نسخههای سختافزاری تسلا و شرایط مختلف تصادف به وضوح دیده می شود. عدم تناسب بین انتظارات راننده و قابلیتهای عملیاتی Autopilot منجر به ایجاد یک شکاف حیاتی در بخش ایمنی آن شد.
NHTSA از نامگذاری این سیستم به سیستم Autopilot انتقاد کرد و آن را گمراهکننده دانست. این سازمان معتقد است که نام Autopilot باعث میشود رانندگان تصور کنند نرمافزار کنترل کامل بر خودرو دارد. در صورتی که شرکتهای رقیب بیشتر از کلماتی مانند «کمکراننده» استفاده می کنند Autopilot. به معنای خلبان خودکار است و به این معناست که می تواند مستقل عمل کند. دادستان کل ایالت کالیفرنیا و اداره وسایل نقلیه موتوری این ایالت نیز در حال حاضر تحقیقاتی را درباره گمراهکنندگی نام تجاری و تبلیغات تسلا آغاز کردند.
طبق گفته The Verge تسلا ادعا می کند که به مشتریان در مورد لزوم توجه کامل حین استفاده از سیستم های Autopilot و FSD هشدار داده است. این شرکت میگوید این نرمافزار از نشانگرهای منظم برای یادآوری به رانندگان جهت نگهداشتن دستها روی فرمان و تمرکز بر جاده استفاده میکند. NHTSA و سازمان های مشابه آن بر این باورند که این هشدارها کافی نیست. با وجود این ایلان ماسک، مدیرعامل تسلا به تازگی قول داد که شرکت با تمام توان به دنبال هدف اصلی خود یعنی «خودرانسازی» است.
کشفهای NHTSA ممکن است تنها بخش کوچکی از تعداد واقعی تصادفات و حوادث مرتبط با Autopilot و FSD باشد. این سازمان به «نقص دادههای تلهماتیک تسلا» اشاره کرده که «موجب عدم اطمینان در مورد نرخ واقعی درگیری خودروهای فعال با Autopilot در تصادفات» میشود. به زبان ساده تر، تسلا گزارش های کمی از تصادفات داده دریافت میکند. طبق بررسی NHTSA ، این شرکت فقط حدود ۱۸ درصد از داده های تصادفاتی که به پلیس گزارش میشود، را جمعآوری میکند.
NHTSA به موازات این تحقیقات، تحقیقات دیگری هم در مورد آپدیت جدید نرم افزاری بی سیم (OTA) شروع کرد. تسلا در دسامبر گذشته برای حدود دو میلیون خودرو فراخوان داده است. مرکز ملی ترافیک بزرگراه قصد دارد در این تحقیق بررسی کند که آیا این بروز رسانی نرم افزاری مشکل سیستم Autopilot را حل کرده است یا خیر؟!
زینب وهابی میگه:
زینب وهابی میگه:
دوایی میگه: