Главная страница » Автономні транспортні засоби їдуть наосліп
Autonomous Vehicles Are Driving Blind

Автономні транспортні засоби їдуть наосліп

У Сан-Франциско цього місяця жінка отримала травму від того, що її збив водій і викинув на шляху одного із сотень безпілотних автомобілів, які бродять вулицями міста. Начальник пожежної охорони Сан-Франциско Жанін Ніколсон нещодавно засвідчила, що станом на серпень цього року автономні транспортні засоби 55 разів втручалися в роботу пожежної служби. Програмне забезпечення автопілота Tesla, система допомоги водієві, з 2019 року стала причиною 736 аварій і 17 загиблих по всій країні.


Незважаючи на весь галас навколо можливості того, що штучний інтелект колись загрожуватиме людству, наразі мало обговорюється те, як він загрожує людству прямо зараз. Коли справа доходить до безпілотних автомобілів, ми їдемо наосліп.

Причина проста: немає загальних стандартів тестування безпеки програмного забезпечення для автономних транспортних засобів — лазівка досить велика, щоб Ілон Маск, General Motors і Waymo могли запустити тисячі автомобілів. Національне управління безпеки дорожнього руху США регулює апаратне забезпечення (наприклад, склоочисники, подушки безпеки та дзеркала) автомобілів, що продаються в Сполучених Штатах. А штати відповідають за ліцензування водіїв-людей. Щоб отримати право керувати автомобілем, більшість із нас у певний момент має пройти перевірку зору, письмовий іспит та іспит з водіння.

  • А.І. не проходить такого державного контролю перед тим, як сісти за кермо. У Каліфорнії компанії можуть отримати дозвіл на експлуатацію безпілотних автомобілів, заявивши, що їхні транспортні засоби пройшли випробування та «виробник обґрунтовано визначив, що експлуатація транспортного засобу безпечна».

«Існує така дивна різниця між тим, хто відповідає за ліцензування водія комп’ютера — це N.H.T.S.A. чи держава?» — запитує Міссі Каммінгс, професор і директор Центру автономії та робототехніки Мейсона в Університеті Джорджа Мейсона.

Тут є іронія: так багато заголовків зосереджено на побоюваннях, що комп’ютери стануть занадто розумними й заберуть контроль над світом у людей, але в нашій реальності комп’ютери часто надто тупі, щоб не завдати нам шкоди.


Компанії з автономних транспортних засобів стверджують, що, незважаючи на їх розголошені несправності, їх програмне забезпечення все ще краще, ніж люди-водії. Це може бути правдою — зрештою, автономні транспортні засоби не втомлюються, не їздять п’яними, не їдять за кермом, але ми поки що не маємо даних, щоб зробити це визначення. Автономні автомобілі допускають і інші помилки, наприклад зупиняються таким чином, що блокують швидку допомогу та затискають жертву аварії.

Минулого місяця представники Ненсі Пелосі та Кевін Муллін написали листа до N.H.T.S.A. з проханням до агентства вимагати більше даних про інциденти з автономними транспортними засобами, особливо ті, що стосуються зупинених транспортних засобів, які заважають працівникам екстреної допомоги. Більше порівняльних даних про автокатастрофи, спричинені людьми, також було б корисно; N.H.T.S.A. надає лише оцінки збоїв на основі вибірки.

Але чому ми не можемо піти далі, ніж збір даних?

Адже А.І. часто робить дивовижні помилки. Цього року один із автомобілів GM Cruise врізався в зчленований автобус після того, як неправильно передбачив його рух. GM оновила програмне забезпечення після інциденту. Минулого року автономний автомобіль різко загальмував, повертаючи ліворуч, тому що, здавалося, подумав, що зустрічна машина збирається зробити правий поворот на його шляху. Натомість зустрічний автомобіль врізався в зупинену машину без водія. Пасажири обох автомобілів отримали травми.

«Системи комп’ютерного зору в цих автомобілях надзвичайно крихкі. Вони зазнають невдачі у спосіб, який ми просто не розуміємо», — каже доктор Каммінгс, який написав, що ШІ. повинні підлягати ліцензійним вимогам, еквівалентним перевіркам зору та ефективності, які проходять пілоти та водії.

Звичайно, проблема не обмежується автомобілями. Щодня ми дізнаємося про інший спосіб, яким ШІ. чат-боти зазнають невдачі — чи то винаходячи прецедентне право, чи то сексуально домагаючись своїх користувачів. І ми давно боремося з невдачами А.І. системи рекомендацій, які іноді рекомендували частини зброї та засоби для вживання наркотиків на Amazon, що обмежує такі товари, або просували ідеологічно упереджений контент на YouTube.


Незважаючи на всі ці реальні приклади шкоди, багато регуляторів все ще відволікаються на далекі та, для деяких, надумані сценарії катастроф, створені штучним інтелектом. doomers — потужні технічні дослідники та керівники, які стверджують, що найбільше занепокоєння викликає ризик вимирання людства. Британський уряд проводить A.I. Safety Summit у листопаді, і Politico повідомляє, що штучний інтелект країни. оперативну групу очолюють такі доомери.

У Сполучених Штатах широкий спектр А.І. Законодавства було запропоновано в Конгресі, в основному зосереджене на проблемах домерів, таких як заборона ШІ. від прийняття рішень про запуск ядерної зброї та потреби в деяких високоризикових ШІ. моделях, які підлягають ліцензуванню та реєстрації.

Теорії домерів — це «тактика відволікання, щоб змусити людей переслідувати нескінченну кількість ризиків», — каже Хайді Хлааф, інженер із безпеки програмного забезпечення, який є директором з інженерних питань у Trail of Bits, організації з технічної безпеки.

У недавній статті д-р Хлааф виступив за те, щоб зосередитися на штучному інтелекті. тестування безпеки, яке є специфічним для кожного домену, в якому він працює — наприклад, ChatGPT для використання юристами.

Іншими словами, ми повинні почати визнавати, що А.І. Безпека є розв’язною проблемою, і ми можемо і повинні вирішити її зараз за допомогою наявних у нас інструментів.

Експерти в різних сферах повинні оцінити ШІ. використовували в своїх галузях, щоб визначити, чи це занадто ризиковано — починаючи з того, щоб змусити купу автономних автомобілів проходити іспити на огляд і водіння.

Звучить нудно, але безпека саме в цьому. Це купа експертів, які проводять тести та складають контрольні списки. І ми повинні почати це робити зараз.


Джулія Енгвін

Другие посты