На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Портал в неведомое

6 033 подписчика

Свежие комментарии

  • Полина Поладова
    Так в чем напутал Пятибрат касательно Луны и месяца? Не припомнюНебесный хрусталь...
  • Полина Поладова
    Такая безценная информация и без должного внимания.. особенно интересно после прочтения глубинной книги. Надо бы зано...Небесный хрусталь...
  • Ирина Чернова
    В Шумере много всего было⚠️🐉Загадка фигурок р...

Это пугает: Учёные перестали понимать, как именно ИИ принимает решения.

Выступающие на конференции Neural Information Processing Systems специалисты в области искусственного интеллекта заявили, что перестали понимать принцип принятия решений, которым руководствуется ИИ, — сообщает Quartz.

По мнению экспертов, принимать как должное действия ИИ без понимания его логики — довольно легкомысленно, ведь чтобы люди приняли модели машинного обучения, им нужно знать, чем именно руководствуется ИИ, решая, как именно ему следует поступить в конкретной ситуации.

Часто решения, принятые ИИ, бывают предвзятыми, кроме того, его ассоциативное «мышление» тоже зачастую бывает не столь идеальным, в результате чего ИИ проводит неправильные аналогии. Такие ошибки могут дорого обойтись, если ИИ будет руководить сложными проектами, такими, к примеру, как полёт на Марс — в этом случае неверный поступок искусственного интеллекта может не только уничтожить дорогостоящее оборудование, но и повлечь за собой смерти людей. Поэтому, перед тем, как позволить ИИ самостоятельно принимать важные решения, необходимо сначала изучить принципы, которыми он руководствуется, — поясняет Мэтра Рагху, специалист по ИИ из Google.

На конференции она представила доклад, в котором описала процесс отслеживания действий отдельных частей нейросети. Отсматривая их по частям, можно понять логику ИИ, а затем, в случае чего, её и подкорректировать. Анализируя миллионы операций, она смогла выявить отдельные искусственные «нейроны», которые концентрировались на неверных представлениях, а затем отключить их, сделав ИИ более сговорчивым и правильным.

Это чем-то похоже на то, как учитель подаёт какой-то материал, а затем просит ученика пересказать своими словами, что именно он понял из лекции, — поясняет Кири Вагстафф ИИ-эксперт из NASA.

Судя по результатам этого исследования, верно понять действия искусственного интеллекта не так уж и сложно. Главное — решить проблему до того, как станет слишком поздно.

Источник

PS: Современные ученые, занимающиеся ИИ, напоминают обезьяну с гранатой...

Картина дня

наверх