Почему мир пока не готов к самоуправляемым автомобилям?
Потому что мир полон идиотов, не читающих пользовательских соглашений и пытающихся использовать вещи не по их назначению и возможностям.
Это в очередной раз доказала компания Tesla Элона Маска: она показала видео, опубликованные на YouTube водителями этих машин, пытающимися выглядеть жертвами в глазах окружающих.
В начале октября этого года стало известно, что владельцы автомобилей Tesla Model S получат возможность испытать новое программное обновление, которое, помимо прочего, добавляет электрокару некоторые функции автопилота.
Благодаря имеющимся на борту Model S датчикам, сенсорам, камерам и радарам, автомобиль способен менять полосы движения (при включении водителем соответствующего поворотника), соблюдать дистанцию между впереди идущей машиной, держаться скоростного режима, при необходимости останавливаться, а затем продолжать движение.
Люди, обрадовавшись, что перед ними полноценный автопилот, поспешили, не читая (или невнимательно читая пользовательское соглашение) воспользоваться им как полноценным электронным водителем. Только дело в том, что в этом пользовательском соглашение четко указано, что система «автопилот» предназначена исключительно для использования на больших автомагистралях, разгруженных от автомобильных заторов и не имеющих дорожных знаков по обе стороны от автомобиля, которые могут ввести систему в заблуждение. Кроме того, там же указано, что система предоставляется в качестве «бета-версии» и поэтому водитель должен постоянно контролировать ситуацию, не убирать руки от руля и быть всегда готовым к тому, чтобы перехватить управление автомобилем.
Однако есть на Земле люди, которые плевать хотели на все эти пользовательские соглашения и инструкции. Им подавай все и сразу.
Одним из самых ярких примеров является видео ниже, где человек, которому хватило ума заработать на автомобиль стоимостью около 100 000 долларов, но не хватило ума прочитать соответствующую инструкцию по его эксплуатации, пытается использовать функцию «автопилота» на узкой пригородной дороге, игнорируя информацию о безопасности, которую ему сообщает автомобиль (а именно большой красный знак руля на приборной панели и звуковой сигнал, которые сообщает человеку о том, чтобы он держал руки на руле, а не ковырялся в носу). Человек почти спровоцировал аварию, так как автомобиль, запутавшись в показаниях (и весьма неровном полотне дороги), почти выехал на полосу встречного движения, где чуть не столкнулся со встречным внедорожником.
Во втором видео человек тоже пренебрегает информацией в инструкции и пытается использовать систему «автопилота» на дорожной развязке, где это категорически запрещается делать. Результат такого решения можно посмотреть ниже.
Люди не понимают, что это обновление не делает их автомобиль самоуправляемым. Они не понимают, что функция автопилота призвана в первую очередь помогать водителю, а не управлять автомобилем за него. Это просто продвинутый круиз-контроль, упрощающий вождение авто стоимостью около 100 000 долларов.
При использовании системы при условиях, соответствующих инструкции и пользовательскому соглашению, она показывает себя отлично, в чем можно убедиться на видео ниже.
Описанные случаи — это лишь капля в море, но есть ли в них вина самого Элона Маска и компании Tesla? Вероятнее всего, да. Они не учли, что в мире много глупых людей.
Кроме того, есть другая причина, по которой будущее самоуправляемых автомобилей под вопросом.
Классическая философская проблема: вы — водитель автобуса, перевозящего детей, который вот-вот попадет в аварию. Вы можете резко повернуть на другую полосу. Однако на этой полосе в автомобиле находится ваш сын/дочь, и столкновение с авто приведет к фатальным последствиям для вашего отпрыска. Перед вами выбор: уберечь сына/дочь или спасти детей.
Природа человека такова, что мы можем бесконечно обсуждать, что бы мы могли сделать в той или иной ситуации. Однако реально мы это не будем знать ровно до тех пор, пока мы действительно не окажемся в такой ситуации. Хотелось бы надеяться, что в ситуации выше никому никогда и не придется оказаться. Что же касается самоуправляемых автомобилей, то выход из той или иной ситуации будет заранее заложен в программу.
Будете ли вы согласны с решением отклонения курса вашего автомобиля, двигающегося по горной дороге прямиком в бездну, если это решение спасет жизни матери и ее ребенка? Группа ученых по вопросам этики и биоэтики в Алабамском университете (США) в настоящий момент разбирается в данном вопросе.
Специалисты уверены, что для принятия решения компьютерной программе потребуется знание всех этических сторон того или иного принимаемого решения, однако, по их мнению, «компьютер просто невозможно запрограммировать на знание всех этих аспектов».
Потому что мир полон идиотов, не читающих пользовательских соглашений и пытающихся использовать вещи не по их назначению и возможностям.
Это в очередной раз доказала компания Tesla Элона Маска: она показала видео, опубликованные на YouTube водителями этих машин, пытающимися выглядеть жертвами в глазах окружающих.
В начале октября этого года стало известно, что владельцы автомобилей Tesla Model S получат возможность испытать новое программное обновление, которое, помимо прочего, добавляет электрокару некоторые функции автопилота.
Благодаря имеющимся на борту Model S датчикам, сенсорам, камерам и радарам, автомобиль способен менять полосы движения (при включении водителем соответствующего поворотника), соблюдать дистанцию между впереди идущей машиной, держаться скоростного режима, при необходимости останавливаться, а затем продолжать движение.
Люди, обрадовавшись, что перед ними полноценный автопилот, поспешили, не читая (или невнимательно читая пользовательское соглашение) воспользоваться им как полноценным электронным водителем. Только дело в том, что в этом пользовательском соглашение четко указано, что система «автопилот» предназначена исключительно для использования на больших автомагистралях, разгруженных от автомобильных заторов и не имеющих дорожных знаков по обе стороны от автомобиля, которые могут ввести систему в заблуждение. Кроме того, там же указано, что система предоставляется в качестве «бета-версии» и поэтому водитель должен постоянно контролировать ситуацию, не убирать руки от руля и быть всегда готовым к тому, чтобы перехватить управление автомобилем.
Однако есть на Земле люди, которые плевать хотели на все эти пользовательские соглашения и инструкции. Им подавай все и сразу.
Одним из самых ярких примеров является видео ниже, где человек, которому хватило ума заработать на автомобиль стоимостью около 100 000 долларов, но не хватило ума прочитать соответствующую инструкцию по его эксплуатации, пытается использовать функцию «автопилота» на узкой пригородной дороге, игнорируя информацию о безопасности, которую ему сообщает автомобиль (а именно большой красный знак руля на приборной панели и звуковой сигнал, которые сообщает человеку о том, чтобы он держал руки на руле, а не ковырялся в носу). Человек почти спровоцировал аварию, так как автомобиль, запутавшись в показаниях (и весьма неровном полотне дороги), почти выехал на полосу встречного движения, где чуть не столкнулся со встречным внедорожником.
Во втором видео человек тоже пренебрегает информацией в инструкции и пытается использовать систему «автопилота» на дорожной развязке, где это категорически запрещается делать. Результат такого решения можно посмотреть ниже.
Люди не понимают, что это обновление не делает их автомобиль самоуправляемым. Они не понимают, что функция автопилота призвана в первую очередь помогать водителю, а не управлять автомобилем за него. Это просто продвинутый круиз-контроль, упрощающий вождение авто стоимостью около 100 000 долларов.
При использовании системы при условиях, соответствующих инструкции и пользовательскому соглашению, она показывает себя отлично, в чем можно убедиться на видео ниже.
Описанные случаи — это лишь капля в море, но есть ли в них вина самого Элона Маска и компании Tesla? Вероятнее всего, да. Они не учли, что в мире много глупых людей.
Кроме того, есть другая причина, по которой будущее самоуправляемых автомобилей под вопросом.
Классическая философская проблема: вы — водитель автобуса, перевозящего детей, который вот-вот попадет в аварию. Вы можете резко повернуть на другую полосу. Однако на этой полосе в автомобиле находится ваш сын/дочь, и столкновение с авто приведет к фатальным последствиям для вашего отпрыска. Перед вами выбор: уберечь сына/дочь или спасти детей.
Природа человека такова, что мы можем бесконечно обсуждать, что бы мы могли сделать в той или иной ситуации. Однако реально мы это не будем знать ровно до тех пор, пока мы действительно не окажемся в такой ситуации. Хотелось бы надеяться, что в ситуации выше никому никогда и не придется оказаться. Что же касается самоуправляемых автомобилей, то выход из той или иной ситуации будет заранее заложен в программу.
Будете ли вы согласны с решением отклонения курса вашего автомобиля, двигающегося по горной дороге прямиком в бездну, если это решение спасет жизни матери и ее ребенка? Группа ученых по вопросам этики и биоэтики в Алабамском университете (США) в настоящий момент разбирается в данном вопросе.
Специалисты уверены, что для принятия решения компьютерной программе потребуется знание всех этических сторон того или иного принимаемого решения, однако, по их мнению, «компьютер просто невозможно запрограммировать на знание всех этих аспектов».
Тэги: новости технологий, самоуправляемые автомобили, tesla
По материалам: Нi-news
Восточный дозор
Топ новостей сегодня
Новости
Театрально-концертный центр приглашает на «Kharkiv best fest»
Харьковские дворники посыпают дорожки песчано-солевой смесью (ФОТО)
На Алексеевке горела комната вахтера в многоэтажке: пострадала женщина (ФОТО)
Юные лицеисты побывали на экскурсии в городском совете
В ТЮЗе презентуют социальный фотопроект в поддержку бездомных животных