Сотрудник google сформулировал пять ключевых проблем при создании искусственного интеллекта

Сотрудник google сформулировал пять ключевых проблем при создании искусственного интеллекта

Ежегодно Гугл неизменно отчитывается об удачах в учёбе собственной умной автомобили. Общеизвестные и уже подсознательно принимаемые образы ИИ, созданные Голливудом, заронили в человеке идея об опасности разумной автомобили – так как потенциальная неограниченность и непредсказуемость интеллектуального развития компьютера вправду может погубить человечество. Всё это в действительности не столько вопрос научной фантастики, сколько насущная неприятность, с которой борются современные учёные.

В публикации, написанной совместно экспертами из Гугл, OpenAI, Стэнфордского Калифорнийского университета и университета в Беркли, сотрудник Гугл Крис Ола сформулировал пять главных неприятностей, решить каковые нужно для стратегического развития ИИ.

Смотрите кроме этого: Глава Alphabet Эрик Шмидт грезит о собственном ассистенте с ИИ

Глава компании Alphabet Эрик Шмидт уверен в том, что ИИ имеет громадный потенциал для ответа вопросов, каковые тревожат всю землю, а также неприятностей трансформации климата, роста и образования популяции планеты. Помимо этого, он желает создать собственного виртуального ассистента с задатками ИИ. Согласно данным издания Bloomberg, на прошедшей на этой неделе в Нью-Йорке конференции Шмидт призвал разработчиков к участию в реализации разработки ИИ, над которой начали работу компании Google и Facebook.

  • Избегание негативных побочных эффектов: как удостовериться, что совокупность ИИ не нарушит состояние внешней среды на протяжении исполнения собственных задач?
  • Избегание мыслей о награде: как организовать работу ИИ и избежать жульничества? К примеру, нам нужен робот-уборщик, что в действительности убирается, а не прячет мусор подальше, дабы мы его не видели.
  • Разные степени контроля: как убедиться в способности ИИ выполнить поставленную задачу точно, в случае если её исполнение нереально совершенно верно смоделировать на тренировке? К примеру, в случае если ИИ приобретает сообщение от человека на протяжении исполнения задачи, ему направляться сразу же действенно применить новую данные к задаче, не задавая лишних вопросов, каковые испытывают терпение человека.
  • Надёжное самообучение: как обезопасить совокупность ИИ от поступков с целью изучения, каковые имеют негативные последствия? К примеру, робот-уборщик обязан экспериментировать со стратегиями уборки, но ему не нужно вытирать электрическую розетку мокрой шваброй.
  • Свойство переключения между видами деятельности: как сделать совокупность ИИ, которая будет выяснять и тихо реагировать на условия работы, хорошие от условий тренировки? К примеру, навыки работы в условиях завода смогут не подойти в условиях офиса.

Эти вопросы, в отличие от пресловутых Трёх Законов робототехники, сформулированных фантастом Айзеком Азимовым, вправду смогут быть использованы на практике и оказать большую помощь в будущем, которое связано с проектами ИИ и обучаемых автомобилей.

Источник: phonearena.com

Увлекательные записи:

Искусственный интеллект Google: как устроены технологии будущего. Грег Коррадо


Комментарии и уведомления в настоящее время закрыты..

Комментарии закрыты.