Высокие статистические технологии

Форум сайта семьи Орловых

Текущее время: Пн июл 07, 2025 7:07 pm

Часовой пояс: UTC + 3 часа




Начать новую тему Ответить на тему  [ 1 сообщение ] 
Автор Сообщение
 Заголовок сообщения: Искусственный интеллект - рождение разума
СообщениеДобавлено: Чт июн 26, 2025 8:24 pm 
Не в сети

Зарегистрирован: Вт сен 28, 2004 11:58 am
Сообщений: 11929
Рождение разума

Даже создатели начинают понимать, что в случае появления независимого от человека искусственного интеллекта никто на планете не сможет предсказать его дальнейшие действия
Если при посадке на самолет вам объявят, что вероятность того, что вы погибнете в результате авиакатастрофы, составляет 10–20 процентов, будете вы садиться на этот авиалайнер? Именно в такой ситуации оказались разработчики искусственного интеллекта (ИИ). Продвинутые эксперты, в их числе Илон Маск и генеральный директор Google Сундар Пичаи, оценивают вероятность гибели человечества от самостоятельного ИИ – именно в эти 10–20 процентов.
Американский новостной сайт Axios сообщает, что, по меньшей мере, десять человек уволились из крупнейших компаний, занимающихся искусственным интеллектом, из-за серьезных опасений по поводу возможностей этой технологии. При появлении она получит потенциал, с которым сможет уничтожить человечество. Если бы это были один или два человека, их заявления можно было бы легко отбросить как безумные домыслы или списать на усталость от работы. Но десятки топ-менеджеров в нескольких ведущих компаниях – и все с одинаковыми предупреждениями? А что, если они окажутся правы?
Речь идет об AGI (общий искусственный интеллект) – это гипотетический тип искусственного интеллекта, который обладает способностью понимать, учиться и применять свои знания в широком спектре задач, как это делает человек. В отличие от существующих систем ИИ, которые специализированы для решения конкретных задач, AGI будет универсальным и сможет адаптироваться к новым ситуациям и решать любые когнитивные задачи, с которыми сталкивается человек. Фактически мы получим разум, который не будет контролироваться человеком, и сможет существовать самостоятельно. Никто не знает точно, когда он появится. Кто-то считает, что через пять лет, кто-то – через десять. Но его появление будет означать, что на нашей планете появилось что-то, имеющее возможность принимать решения без участия людей и не учитывающее их мнения.
В последние годы искусственный интеллект (ИИ) стал неотъемлемой частью нашей жизни. Его применение охватывает различные сферы – от медицины до финансов, от автономных автомобилей до развлечений. Однако с ростом популярности ИИ растет и общественная озабоченность по поводу его потенциальной угрозы. Многие создатели ИИ открыто признают, что даже они не до конца понимают, как именно функционирует их творение. Невозможно отрицать, что ИИ способен на удивительные вещи. От алгоритмов прогнозирования погоды до сложных нейросетей, которые могут рисовать картины или писать тексты, ИИ демонстрирует впечатляющие результаты. Однако при этом исследователи признают, что многие механизмы его работы остаются загадкой.
Исследователи нейросетей, к примеру, часто сталкиваются с «черными дырами», в которых не ясно, почему ИИ принимает те или иные решения. Это происходит из-за сложной математической природы алгоритмов, которые применяются для обучения нейронных сетей. Даже разработчики, создавшие эти системы, порой не понимают, как именно они пришли к конкретному выводу или результату. Кроме того, система может вести себя непредсказуемо в критических ситуациях.
Многие технологии ИИ, такие как глубокое обучение, требуют больших объемов данных для обучения. Убедиться в том, что данные точны и не содержат предвзятости, очень сложно. Именно невозможность отследить процесс принятия решения ИИ ставит под угрозу безопасность человечества в целом. Создатели ИИ открыто признают, что не всегда понимают, как работает их собственное творение.
Идея о том, что ИИ может выйти из-под контроля, основана на реальных примерах. В истории уже были случаи, когда системы, использующие технологии ИИ, принимали решения, приводившие к нежелательным последствиям. Например, в финансовом секторе автоматизированные торги уже не раз приводили к обвалу рынков из-за быстро принятых решений алгоритмов. Это подчеркивает, что даже в пределах строго определенных параметров ИИ может стать причиной значительных проблем.
Существует также важный вопрос этики. Когда речь идет о внедрении ИИ в различные области, необходимо учитывать моральную сторону таких решений. Если разработчики ИИ сталкиваются с техническими сложностями и не могут полностью контролировать поведение своих систем, мы должны задуматься о том, насколько безопасно доверять таким технологиям критически важные задачи. К примеру, беспилотные автомобили уже активно тестируются по всему миру. Согласно статистике, большинство аварий с участием таких автомобилей происходит из-за неожиданных ситуаций, в которых ИИ не может оперативно принять правильное решение. Если в случае аварии ИИ посчитает, что жертвы неминуемы, каким образом он будет действовать: уберечь водителя или пешехода? Этот морально-этический вопрос остается открытым и вызывает массу споров. Если вероятность того, что распространение ИИ приведет к нежелательным последствиям (будь то экономические катастрофы, экологические проблемы или даже угроза существованию человечества), составляет хотя бы 10 процентов, можем ли мы в полной мере доверять технологиям, которые мы сами создали? Следует учитывать, что мы уже наблюдаем влияние ошибочных решений, принятых системами ИИ, на экономические рынки и другие сферы жизни.
Возникает закономерный вопрос: стоит ли создавать технологии, которые потенциально могут угрожать нашей безопасности и будущему? Эти вопросы неоднократно поднимались на международных форумах, призывающих исследователей и разработчиков работать над этическими нормами и безопасностью применения технологий. Действительно, разработчики ИИ несут огромную ответственность за свои творения. Их работа не только определяет будущее технологий, но и может значительно повлиять на жизнь миллионов людей. Когда они создают свои алгоритмы, важно, чтобы они осознавали возможные последствия и этические нормы, которые должны руководить их работой.
Многие из нас, вводя текст сообщения на смартфоне, порой видят, что программа неправильно понимает введенный текст и переделывает слова, меняя смысл сообщения. Это и есть простейший пример неправильной работы ИИ. Журнал Forbes сообщает, что исследователи из Cybernews обнаружили утечку тридцати массивов личных данных, каждый из которых содержит от десятков миллионов до трех с половиной миллиардов записей – всего 16 миллиардов аккаунтов. На Земле чуть больше восьми миллиардов жителей. Среди «слитого» URL-адреса, логины и пароли от большинства популярных зарубежных сервисов: Google, Apple, Telegram, GitHub и многих других. Отдельными аккаунтами могут воспользоваться для своих целей мошенники или спецслужбы, но весь объем содержащейся там информации сегодня не сможет оценить и проанализировать никто на планете. Кроме AGI. Воспользовавшись им, не зависимый от человека ИИ сможет буквально всё. Там, если что, по два аккаунта на каждого жители Земли. Свергнуть правительства и создать хаос на Земле? Без проблем. А потом направить все это в нужное ИИ русло для реализации его целей. Каких – не знает никто, даже его создатели…

Александр КУЗНЕЦОВ

https://sovross.ru/2025/06/25/rozhdenie-razuma/


Вернуться наверх
 Профиль  
 
Показать сообщения за:  Сортировать по:  
Начать новую тему Ответить на тему  [ 1 сообщение ] 

Часовой пояс: UTC + 3 часа


Кто сейчас на форуме

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 7


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Русская поддержка phpBB