Ежегодно Гугл неизменно отчитывается об удачах в учёбе собственной умной автомобили. Общеизвестные и уже подсознательно принимаемые образы ИИ, созданные Голливудом, заронили в человеке идея об опасности разумной автомобили – так как потенциальная неограниченность и непредсказуемость интеллектуального развития компьютера вправду может погубить человечество. Всё это в действительности не столько вопрос научной фантастики, сколько насущная неприятность, с которой борются современные учёные.
В публикации, написанной совместно экспертами из Гугл, OpenAI, Стэнфордского Калифорнийского университета и университета в Беркли, сотрудник Гугл Крис Ола сформулировал пять главных неприятностей, решить каковые нужно для стратегического развития ИИ.
Смотрите кроме этого: Глава Alphabet Эрик Шмидт грезит о собственном ассистенте с ИИ
Глава компании Alphabet Эрик Шмидт уверен в том, что ИИ имеет громадный потенциал для ответа вопросов, каковые тревожат всю землю, а также неприятностей трансформации климата, роста и образования популяции планеты. Помимо этого, он желает создать собственного виртуального ассистента с задатками ИИ. Согласно данным издания Bloomberg, на прошедшей на этой неделе в Нью-Йорке конференции Шмидт призвал разработчиков к участию в реализации разработки ИИ, над которой начали работу компании Google и Facebook.
- Избегание негативных побочных эффектов: как удостовериться, что совокупность ИИ не нарушит состояние внешней среды на протяжении исполнения собственных задач?
- Избегание мыслей о награде: как организовать работу ИИ и избежать жульничества? К примеру, нам нужен робот-уборщик, что в действительности убирается, а не прячет мусор подальше, дабы мы его не видели.
- Разные степени контроля: как убедиться в способности ИИ выполнить поставленную задачу точно, в случае если её исполнение нереально совершенно верно смоделировать на тренировке? К примеру, в случае если ИИ приобретает сообщение от человека на протяжении исполнения задачи, ему направляться сразу же действенно применить новую данные к задаче, не задавая лишних вопросов, каковые испытывают терпение человека.
- Надёжное самообучение: как обезопасить совокупность ИИ от поступков с целью изучения, каковые имеют негативные последствия? К примеру, робот-уборщик обязан экспериментировать со стратегиями уборки, но ему не нужно вытирать электрическую розетку мокрой шваброй.
- Свойство переключения между видами деятельности: как сделать совокупность ИИ, которая будет выяснять и тихо реагировать на условия работы, хорошие от условий тренировки? К примеру, навыки работы в условиях завода смогут не подойти в условиях офиса.
Эти вопросы, в отличие от пресловутых Трёх Законов робототехники, сформулированных фантастом Айзеком Азимовым, вправду смогут быть использованы на практике и оказать большую помощь в будущем, которое связано с проектами ИИ и обучаемых автомобилей.
Источник: phonearena.com
Увлекательные записи:
- Sound band: наушники, лишённые динамиков
- Sound blaster roar: портативная акустическая bluetooth-система с богатой функциональностью
- Создана система формирования изображений без оптики