تسلا تعترف رسميًا أن سياراتها ذاتية القيادة تتسبب في حوادث الطرق

عملية استدعاء ضخمة لسيارات الشركة الأمريكية

  • تاريخ النشر: الأحد، 05 مارس 2023
تسلا تعترف رسميًا أن سياراتها ذاتية القيادة تتسبب في حوادث الطرق

تم استدعاء أكثر من 360.000 من طراز X ، و Model 3 ، و Model S بعد حوادث متعددة من تقنية بيتا للقيادة الذاتية الكاملة من تسلا.

استدعت Tesla مؤخرًا 362،758 سيارة ذاتية القيادة معترفة بأن برنامجها التجريبي للقيادة الذاتية الكاملة (FSD) هو المسؤول عن العديد من الحوادث.

تشمل طرز Tesla المشاركة في الاستدعاء طراز 2016-2023 X و Model S ، و 2017-2023 Model 3 ، و 2020-2023 Model Y مع FSD beta. تُظهر مقاطع فيديو متعددة Teslas بإمكانية FSD beta التي أصبحت عديمة الفائدة وتتعرض للحوادث.

يقول مسؤولو تسلا إن الحوادث وقعت في أغلب الأحيان عند التقاطعات. من الواضح أن التكنولوجيا لا تعترف بإشارات التوقف وتتحرك من خلالها بدلاً من التوقف التام.

تواجه Teslas مع FSD beta أيضًا مشكلات في الأضواء الصفراء الثابتة عند تقاطع حيث لا تقترب بحذر.

لقد تجاوزوا أيضًا خطوطًا صفراء مزدوجة لدخولهم ممرات حركة المرور القادمة.

ليست هذه هي المشكلة الأولى التي نشأت من زعيم السيارات الكهربائية وأدت إلى قدر كبير من النقد والقلق من السياسيين والجمهور.

يعد هذا استدعاءًا كبيرًا نظرًا لأن 400000 سيارة تسلا تتمتع بتقنية القيادة الذاتية ، وقد تم استدعاء أكثر من 360.000 وحدة. الاستدعاء الجماعي حقيقة يصعب تجاهلها. ومع ذلك ، يدعي Elon Reeve Musk ، الرئيس التنفيذي لشركة Tesla ، أن المصطلح مضلل.

وفقًا لماسك ، الحل بسيط مثل تحديث البرنامج. ستصدر الشركة هذا التحديث مجانًا كبرنامج عبر الهواء (OTA).

يدعي أستاذ القانون من جامعة ساوث كارولينا ، براينت ووكر سميث ، أن المصطلح الأكثر ملاءمة قد يكون "استدعاء افتراضي". يقودنا هذا الوضع إلى عالم جديد من القانون.

هناك القليل جدًا من الأسبقية في القضايا المتعلقة بالسيارات ذاتية القيادة والتداعيات المرتبطة بأعطالها. مع ظهور المنتجات المزيفة العميقة و ChatGPT ، تعد تقنية FSD جانبًا آخر من جوانب هذا الملعب القانوني ، الذي يجب أن يشهد مزيدًا من الوقت والتدقيق لضمان سلامته.