Twitter, Tesla Motors, Solar City и другие проекты Маска

Автор Apollo13, 15.07.2016 08:56:41

« назад - далее »

0 Пользователи и 2 гостей просматривают эту тему.

dmitryskey


Ну-и-ну

По-моему очевидно, что надо законодательно ограничивать применение автопилота специально помеченными дорогами. Типа, можно только на левой полосе автотрассы.

Как вариант, разрешить "отвоз нетрезвого / уставшего водителя", но обязательно с включенной мигалкой "тут работает автопилот" (чтобы все боялись) и ограничением скорости 40-45 миль в час.

А беспредел с непомеченными роботами на дороге не нужен.

Max Andriyahov

ЦитироватьМда, не все так гладко с автопилотом

ЦитироватьПо-моему очевидно, что надо законодательно ограничивать применение автопилота специально помеченными дорогами.  

Ну "не выиграл, а проиграл и преферанс а не в лотерею": После запуска системы автопилота число ДТП с участием электромобилей Tesla сократилось на 40%. Со временем беспилотное ПО компании сделает вождение настолько безопасным, что страховка потребует минимальных затрат. Страховые службы уже начали готовиться к нашествию технологии, которая имеет все шансы подорвать существующий рынок.

https://hightech.fm/2017/05/26/tesla_insurance

Т.е. сначала Тесла вышибает с рынка перекупов-автодилеров, поочередно из каждого штата (осталось вроде 21, недавно взяли Коннектикут). А теперь еще и страховых агентов поставит раком. Истинно вам говорю, эти парни разрушают экономику США!)))))

Ну-и-ну

Абсолютно пофиг, сократилось ли количество ДТП у некоего газетчика в статье. Как вполне успешный программист с 26-летним стажем, я программисту автопилота жизнь своих родных не доверю. Безотносительно статистики. И безотносительно Теслы, кстати, хоть Тоёта, хоть Форд - пофигу.

Пущай оные поделия ездят "где-то там". А если "тут" - ограничение по скорости, аварийка.

И к этому всё придёт. Ну если не запретят совсем.

Not

#624
"Автопилот" (почему в кавычках будет ясно по тексту) работает прекрасно в детерминированных непротиворечивых ситуациях, кои составляют ну скажем 95 процентов от всех ситуаций на дороге.
Когда "автопилот" встречается с не[до]определенностью, или, что хуже - с противоречивостью (например в гугл-карте дорога с двусторонним движением, а в реальности - одностороння) он слетает с катушек, как например слетела с катушек программа, играющая в ГО с Ли Сеголом, а там между прочим со стороны компьютера был целый ЦОД. Выражение "сойдет с ума" неприменимо, потому что ума нет. Все что есть - глубокая нейросеть обученная вождениею автомобиля для тех самых 95 процентов (deep learning).

Как поступает человек в условиях противоречивости - он подключает другие известные ему области знаний, опыта, мудрости  наконец.  Возможно именно в этом случае и возникает то, что называют "озарением". В случае с односторонней дорогой - по ряду косвенных признаков он определяет что тут что-то не так (например машины припаркованы навстречу) и разбирается в ситуации. У глубокой нейросети ничего этого нет даже близко. Можно сколько угодно рассуждать о самообучаемых дронах летающих по густому лесу с бешеной скоростью, об авто-автомобилях мотающихся туда-сюда по накатанным маршрутам, но все это мимо кассы. Каждый, кто водит автомобиль несколько раз за свою практику попадал в нестандартную ситуацию со статистически мизерной вероятностью (у человека и робота свои классы нестандартных ситуаций). Если применить это к "автопилоту" - пассажиры будут жить лет до тридцати максимум, а потом - нештатная ситуация которой вследствии мизерной вероятности обучить забыли и прости-прощай. Все заявления Маска, что полностью автономный автопилот будет готов через полгода ( было сказано в январе) - оптимистичный бред, поскольку не подкреплен соответствующими исследованиями в области ИИ.

Именно по этой причине надеяться на полностью автономный автопилот в ближайшие годы не приходится, все что будет - адаптивный помощник, регулярно обращающийся к человеку за помощью. Вести машину в пробке, держать дистанцию на трассе, помогать водителю инфра-радио видением - безусловно будут, они уже есть. Принимать самостоятельно решения в сложных ситуациях - не в этом десятилетии и не в следующем.

Max Andriyahov

ЦитироватьА если "тут" - ограничение по скорости, аварийка.
Аварийка дудет обязательно. Куды ж нам без цветовой дифференциации штанов... Только опять же - будет совсем в другую сторону) Например, так:

http://max-andriyahov.livejournal.com/254167.html

Vlad_hm

#626
ЦитироватьNot пишет:
со стороны компьютера был целый ЦОД
Со стороны компьютера был очень скромный ЦОД. Несравнимый с ресурсами (с привязкой ко времени реализации, конечно), чем что потребовалось для Дип Блю, который поставил точку в шахматах. Кстати, уже через год АльфаГо, которая уже всухую разгромила Ке Цзе - использовал в 10 раз меньше аппаратных ресурсов, чем та его версия, что играла с Ли Седолем.
Тупой брутфорс не взял бы Го - она слишком сложна для этого.
Вы вообще в Го играете? Я люблю эту игру... тут последние 2-3 года произошёл фактически взрывной рост качества программ. Именно качества. Те, что я обыгрывал влёгкую, стали громить (после обновления ПО, на тех же аппаратных ресурсах!) меня - всухую. Уже скоро телефоны смогут обыгрывать людей-про...
ЦитироватьNot пишет:
Как поступает человек в условиях противоречивости - он подключает другие известные ему области знаний, опыта, мудростинаконец.
Или не подключает.
И есть такое понятие, как статистика, которая показывает, что люди очень часто "не подключают". Слишком часто.
В общем, тут суть очень простая.
От автопилотов не требуется всегда быть лучше человека на дорогах.
Причём детерминировано лучше.
От них требуется быть лучше - чаще.
Показать, что они реже ошибаются, реже становятся виновниками ДТП, чем человек.
И всё.
Этой границы уже достаточно, чтобы их начали внедрять (что потихоньку и происходит). Основные проблемы у автопилотов на дорогах с людьми. Автомат-то с соседом-автоматом всегда договорится о дистанции и кто первым должен уступить/проехать, а вот как анализировать человека, который куда едет - он и сам иногда не знает, и куда повернёт через 10 минут - не в курсе, и на дороге постоянно нарушает правила (пусть и в основном по-мелочи) - это как раз орешек крепкий... так что тут правило есть такое - чем больше автоматов будет на дорогах, тем им легче будет. И люди это тоже понимают.
И людям будет легче (тем, кто не сильно нарушает). Собственно, уже есть исследования, показывающие, что даже незначительное добавление "автоматов" на дорогу увеличивает пропускную способность, снижает образование пробок.
https://geektimes.ru/post/289045/
Человек лучше справляется с нештатными ситуациями на дороге - это сейчас (и в ближайшем будущем) верно. Но автомат - старается не допускать образования самих таких ситуаций. Соблюдая правила. И это становится более выигрышной стратегией. А поскольку автоматы этой стратегии придерживаются всегда (не в аварийных ситуациях - там как раз допускаются отклонения от правил) - они будут лучшими водителями. К человеку на дорогах (для всех) эта стратегия неприменима...

Атяпа

ЦитироватьНу-и-ну пишет:
Абсолютно пофиг, сократилось ли количество ДТП у некоего газетчика в статье. Как вполне успешный программист с 26-летним стажем, я программисту автопилота жизнь своих родных не доверю. Безотносительно статистики. И безотносительно Теслы, кстати, хоть Тоёта, хоть Форд - пофигу.

Пущай оные поделия ездят "где-то там". А если "тут" - ограничение по скорости, аварийка.

И к этому всё придёт. Ну если не запретят совсем.
Напомнили английский закон на заре автомобильной эры - перед каждым автомобилем должен идти человек с красным флажком...
И днём и ночью кот - учёный!

Ну-и-ну

Атяпа, вы нашли определение призводной функции, заданной на нескольких точках?  ;)

Ну-и-ну

Если в автопилоте "мозгом" является нейросеть, то саморуление банить без вопросов. Данная хрень - не детерминированная программа и вообще никто ни за что не отвечает. Нет прописанной логики, нет программиста. Оно так научилось.

Что ещё хуже - даже поняв "а почему оно приняло такое решение" нельзя поправить мозги точечно, не поменяв поведение в других случаях.

Что характерно - в самолётах автопилот не нейросеть.

Ну-и-ну

ЦитироватьVlad_hm пишет:
Показать, что они реже ошибаются, реже становятся виновниками ДТП, чем человек.
И всё.
А Вас родные есть? Представили?

"И всё."

Vlad_hm

ЦитироватьНу-и-ну пишет:
Данная хрень - не детерминированная программа и вообще никто ни за что не отвечает.
Первое верно, второе - нет.
Отвечают многие.
По всей строгости закона, если что.
Понимаете, в мире до чёртиков вещей, которые человек использует, не понимая. Более того, многие вещи, которые мы вроде как понимаем - опираются на ту же статистику, эмпирику, не более того. Особенно если поскрести поглубже. Не понимая основы до сих пор. Помните анекдот, в котором блондинке рассказывают, как открыли кислород, которым все дышат, а она в ответ удивляются, как же люди раньше дышали-то, бедненькие?
Вот как-то так.
Человечество сплошь и рядом использует то, чего не понимает детерминировано и на все 100%.
И как-то выживает.
ЦитироватьНу-и-ну пишет:
А Вас родные есть? Представили?

"И всё."

Да, представил. А чем это будет отличаться от того, что в ДТП с грустным исходом попадут мои близкие по вине человека? Ему в голову разве я могу заглянуть?! Понять, почему именно так, а не иначе? Мне что - легче будет, что я буду винить человека,а не машину?! Нет, ни капли. Если вам - будет легче - то я никогда вас не пойму.
Мне важно, что в огромном городе риск такого для моих близких и меня, где все машины автоматы - ниже, чем там, где люди.
Разумеется, если так будет.
Вот если так - будет, и это будет доказано статистикой, то так и должно быть.
Потому что машины мы улучшить сможем. Даже не детерминированные автоматы.
А вот людей - нет. В этом я как раз уверен.

Vlad_hm

ЦитироватьНу-и-ну пишет:

Нет прописанной логики, нет программиста. Оно так научилось.

Что ещё хуже - даже поняв "а почему оно приняло такое решение" нельзя поправить мозги точечно, не поменяв поведение в других случаях.
Ну то есть как и с человеком, собственно.
Только лучше. Поскольку, проанализировав ситуацию, мы всё же можем изменить даже недетерминированные автоматы, изменив их так, чтобы из этой ситуации выходили лучше. И проверим, что новые автоматы в миллионах симуляций справляются лучше. Пусть на чуть-чуть, но лучше. И последующая статистика это может подтвердить, или опровергнуть.
А человека, даже если мы разберём всё по полочкам - мы не изменим фактически ничего.
Вот у меня у знакомых горе недавно было на дорогах - по вине пьяни за рулём.
Всё понятно. Не до конца, конечно, т.к. тут такое же отсутствие детерминизма, но вполне ясно, как можно было бы избежать... поможет ли это улучшить ситуацию (этот конкретный случай) для других водителей на дорогах?
Ни капли.

Vlad_hm

Кстати, не нужно переоценивать отсутствие детерминизма нейросетей.
Проблема (учёными и программистами) эта осознана давно, и существует множество способов "заглянуть под капот" и этой машинке. Конечно, там приходится применять и непростые алгоритмы, поскольку в полный рост огромные массивы данных, в динамике, и начинают играть роль в анализе вероятности, но не нужно думать, что нейросети или прочие методы (ГА те же) - это чёрный ящик для того, кто захочет разобраться, почему система приняла именно это решение, а не иное, и как именно она его приняла. Просто это, конечно, сложно.
https://habrahabr.ru/post/219647/
https://geektimes.ru/post/286018/
А иначе их нельзя было бы совершенствовать, собственно.

Ну-и-ну

Вообще понимать надо так. Машина потенциально - оружие (см. Ницца).

Кто разбирается, как писать код, управляющий оружием? Военные. Оказывается, у них всё прекрасно с пониманием, как недёшево писать сильно надёжный код. Что такое нейросети они, кстати, знают, но используют их где надо - для распознавания образов. А где не надо (для принятия решения) - не используют.

Короче, ни в автопилоте самолётов, ни в военке не используют нейросети для принятия решений. И это правильно.

И да, по "отвечают по строгости закона". Не будет суд выискивать персонально накосячившего тренера нейросети. Оштрафуют фирму или вообще оправдают. Далее - см. Калоев. Оно надо?
ЦитироватьVlad_hm пишет:
А человека, даже если мы разберём всё по полочкам - мы не изменим фактически ничего.
Педагоги мира с вами не согласны. Человек обучаем вполне, причём "учить нас" мы учились многие тысячи лет, методики наработаны.

Ну-и-ну

#635
Вы сами с нейросетями игрались? Я - да, если что.

PS: Когда я неколько раз читаю "статистика докажет", я чую человека без мат. образования. Вы по образованию кто будете? :)

Vlad_hm

ЦитироватьНу-и-ну пишет:
Не будет суд выискивать персонально накосячившего тренера нейросети. Оштрафуют фирму или вообще оправдают.
Это уже другого аспекта проблема.
Наказание должно быть чувствительно достаточно, чтобы был принят анализ и работы для устранения таких случаев в дальнейшем. Для фирмы такие случаи будут выливаться в очень чувствительные штрафы, плюс страховщики по головке не погладят. И недаром штрафы с ЮЛ исчисляются такими многозначными суммами. То, за что физика пожурят и накажут парой десятков тысяч, для фирмы выльется в многомиллионные суммы, вплоть до отзыва всей партии. Дизельгейт помните? Фирма решила просто "чуть-чуть" сэкономить, смухлевать. Во чтобы вылилось бы это для частного лица? Во что это вылилось для фирмы? Вот то-то и оно.
Фирмы (особенно в высококонкурентной среде) просто вынуждены будут реагировать. Улучшая постоянно. Реально улучшая, не фиктивно. И доказывая это.
Иначе её завалят исками, и она пойдёт по миру.
Надо просто выработать новые правовые и юридические механизмы для этого. Жёсткие, но прозрачные и понятные. Потому с этим и не спешат. Но потихоньку работают.

Для фирм, кстати, это новые головняки.
Не задумывались - почему в таком случае они вообще всё ещё пилят, и очень активно - автопилоты?
Ведь это новая ответственность, новые риски для них.
Которые раньше - ложились на эксплуатирующую сторону. Спрашивали - не с них. А теперь будут - с них. А они пилят, а не лоббируют принципиальный запрет этого (хотя принципиально - могли бы очень многое сделать в этой области). Задумайтесь над этим. И не считайте автопроизводителей всего мира идиотами.
ЦитироватьНу-и-ну пишет:
Короче, ни в автопилоте самолётов, ни в военке не используют нейросети для принятия решений. И это правильно.
Мне кажется, вы не понимаете. Нейросети (или те же ГА) либо используются, либо нет. Мух от котлет тут уже не отделишь... если у вас блок принятия решения формально вынесен в детерминированный автомат, но он использует как подсистему недерминированный - это в целом недетерминированный аппарат.
И точка.
Если боевой дрон использует "простую и понятную" логику в принятии решения на основе недетерминированной системы распознавания, то система в целом - недетерминирована. "Если машина террориста = стреляем" - логика понятная, но если понятие "машина террориста" выдаёт нейросеть, то то, что потом решение принимает логика детерминированная - ничего не меняет по сути.
А вообще, повторюсь - учёные уже давно умеют разбирать логику работы и нейросетей.
Иначе не было бы и прогресса тут такого последнее время.
Аппаратные мощности последнее время растут слабо (закон Мура почти не работает), а вот нейросети становятся всё умнее и мощнее. Потому что мы научились с ними работать не тупым брутфорсом. Не просто наращивая их аппаратную мощь.
Тот же АльфаГо - пример этого.
ЦитироватьНу-и-ну пишет:
Педагоги мира с вами не согласны. Человек обучаем вполне, причём "учить нас" мы учились многие тысячи лет, методики наработаны.
Человек (и мир) меняется к лучшему, но очень медленно. И есть некие пределы, которые мы с изменением человека, наверное, переступить не сможем.
Если хотим, чтобы человек остался человеком.
И это как раз отражает статистика - кривые аварийности снижаются, но в основном за счёт большей безопасности самих авто, средств спасения и прочая... а доля человеческих ошибок, приводящих к аварии - снижается очень плохо, а порой и растёт.

А вот машины, пусть и очень сложные и недетрминированные - тут мы вольны делать с ними что угодно, корячить их как угодно. И можем делать это довольно быстро.

dmitryskey

С другой стороны, ничего нового для автоиндустрии тут нет. Тойота Приус имел проблемы с его фактическим Drive-By-Wire, машина начинала сама по себе разгонятся, само собой, Тойота до последнего валила все на водителей. Во время судебных разбирательство эксперты сказали, что код настолько сложен и запутан (намекая на хреновое качество разработки и особенности японского инженерного подхода), что никакого способа установить истину нет. По мне, так прямая аналогия с Deep Learning и его проблемами, упомянутого выше. Ну и что - заплатила компания штрафов на 1,2млрд - но это копейки по сравнению с Дизельгейтом, и продолжает совершенствовать гибриды, народ их продолжает покупать за их преимущества.

http://abcnews.go.com/Blotter/toyota-pay-12b-hiding-deadly-unintended-acceleration/story?id=22972214

Vlad_hm

Цитироватьdmitryskey пишет:
По мне, так прямая аналогия с Deep Learning и его проблемами, упомянутого выше.
Кстати совершенно верно. Современные вроде как детерминированные системы массивны и сложны настолько (и в бизнесе имеют такие критичные времена для разработки), что не особо и отличаются от тех же нейросетей в вопросах "а почему оно посчитало так,а  не иначе?".
И предпочитают плюнуть, и считать, что "фаза Луны такая".
Так что тут уже и без недерминированных автоматов каша достаточная.
Для фирмы в целом это мало что меняет.
Главное реакция.

BlackMokona

Про снижением аварийности после включения автопилота Тесла, это гос.орган США раскопал.