Высокие статистические технологии

Форум сайта семьи Орловых

Текущее время: Вс ноя 03, 2024 5:55 am

Часовой пояс: UTC + 3 часа




Начать новую тему Ответить на тему  [ Сообщений: 4 ] 
Автор Сообщение
 Заголовок сообщения: Вокруг искусственного интеллекта
СообщениеДобавлено: Пт сен 09, 2022 12:50 pm 
Не в сети

Зарегистрирован: Вт сен 28, 2004 11:58 am
Сообщений: 11572
Вокруг искусственного интеллекта складывается очень тревожная структура знаний и компетенций, – академик Новиков

26 июля 2022
Источник Отделение энергетики, машиностроения, механики и процессов управления

Директор Института проблем управления РАН академик РАН Дмитрий Новиков рассказал, почему искусственные нейронные сети не используются в системах управления критически важными объектами и в чем состоит главная опасность нездорового ажиотажа вокруг искусственного интеллекта.
В последнее время звучит все больше разговоров о важности технологий искусственного интеллекта. Его применение считают чуть ли не главным трендом развития человечества. Интересно ваше мнение по этому вопросу как руководителя головной научной организации по системам управления. Когда искусственный интеллект станет управлять у нас всем?
Начнем с последнего вопроса – никогда в обозримом будущем. Я считаю, что искусственный интеллект является очень вредным термином, потому что для обывателей он создает иллюзию действительно чего-то сравнимого с человеком. Определений искусственного интеллекта есть тысячи, но, если взять какой-нибудь нормативный документ нашего правительства, программу по развитию искусственного интеллекта, то там будет сказано, что искусственный интеллект – это нечто, имитирующее деятельность человека. Определение очень туманное, и нет четких границ, что относить к искусственному интеллекту.
А что такое искусственный интеллект, по-вашему?
Можно сказать, что с точки зрения теории управления – это раздел математики. Традиционно есть несколько областей науки, как правило – методов прикладной математики, которые считают относящимися к искусственному интеллекту. Они возникли в разное время, и некоторые из них появились еще до 1956 года, когда этот термин возник. Те же столь безумно модные сейчас искусственные нейронные сети берут начало от математической модели искусственного нейрона Мак-Каллока–Питтса – а это 1943 год. Первая практическая реализация нейронной сети – это перцептрон Розенблатта (1957 год). Традиционно к методам искусственного интеллекта, помимо сетей, относят: нечеткие множества (которыми начали заниматься в 1965 году), эволюционные алгоритмы и экспертные системы (возникшие в 1960-70-е годы), мультиагентные системы (1974 год), различные логические средства и многое другое.
Периодически наблюдались всплески интереса к этим областям, но надо понимать, что это весьма эклектичная область знаний, развивающаяся скачками, и каждый из этих скачков сопровождается завышенными ожиданиями, которые сменяются разочарованиями. На протяжении почти 70-летней истории развития этой области таких скачков было несколько и еще много будет, но все это зачастую лишь «пена».

То есть нельзя сказать, что основная задача ИПУ РАН, как головной научной организации в области систем управления, состоит в скорейшем внедрении искусственного интеллекта в управление всем, чем только можно?
Сказать так было бы в принципе неправильно, хотя об искусственном интеллекте мы тоже не забываем. Если обратиться к истории, то в 1970 году вышла книга трех наших сотрудников – Айзермана, Бравермана и Розоноэра «Метод потенциальных функций в теории обучения машин». Это была первая в стране системная работа по распознаванию образов. А в 1974 году появилась книга наших сотрудников Вапника и Червоненкиса «Теория распознавания образов», получившая признание во всем мире – метод опорных векторов и размерность Вапника-Червоненкиса знает каждый студент. Недаром самый на сегодня мощный в России суперкомпьютер Яндекса называется «Червоненкис». То есть, как «Россия – родина слонов», так и Институт проблем управления РАН – родина искусственного интеллекта, как минимум в России. Поэтому, с одной стороны, мы искусственный интеллект, можно сказать, породили и успешно применяем его, где можно и нужно, но не надо вокруг этого поднимать столько шума и кричать, что наша задача состоит в его повсеместном внедрении. Это обывательская точка зрения, в которой есть определенный вред.
Что же вредного в том, что к научно-технической проблеме наблюдается повышенный интерес в обществе?
Понимаете, в теории управления всегда доминировал модельный подход, который подразумевает, что мы должны достаточно хорошо знать и понимать объект управления, чтобы им управлять. Альтернативой этому является безмодельный подход, частным случаем которого являются те же искусственные нейронные сети. Мы их обучаем, но каким образом при этом выстраиваются связи и как именно принимается сетью то или иное решение, мы не знаем.
Представьте, что у вас есть черный ящик, с одной стороны которого есть кнопка, а с другой – лампочка. Нажимаете на кнопку – загорается лампочка. Мы установили эту связь, но не знаем, что там внутри и почему это происходит, зажжется ли лампочка в следующий раз и не взорвется ли этот черный ящик после определенного числа нажатий на кнопку. С одной стороны, хорошо, что не надо забивать себе голову знаниями об объекте управления и тратить время на его изучение: установил связь между кнопочкой и лампочкой – и задача решена. Но есть у безмодельного подхода и минусы: мы не понимаем, что именно на самом деле происходит, а потому, в том числе, не можем гарантировать безопасного функционирования этого объекта. Именно поэтому один из текущих трендов – это разработка интерпретируемых моделей машинного обучения.
Почему искусственные нейронные сети не используются в системах управления критически важными объектами? Потому что никто не может гарантировать, что система управления не выведет этот объект за границы допустимой области. Именно поэтому нейронных сетей нет в авиации, на атомных станциях, во многих производственных системах. Проблема доверенного (объяснимого) искусственного интеллекта – это интересная научная задача с точки зрения математики и много кто ею занимается, но над ее решением еще работать и работать.

Но есть же области, где искусственный интеллект успешно работает.
Разумеется, искусственные нейронные сети успешно применяются во многих областях, в том числе и в наших разработках, но я говорю о вреде, который приносит ажиотаж, который создается вокруг этого термина. Самая главная здесь опасность – цивилизационно-образовательная. В самом деле, если у нас будет тотально принят безмодельный подход, то зачем нам изучать в школе физику, химию, биологию и даже математику. Вместо этого мы «настроим сетку», как говорит сейчас молодежь, и она сама во всем разберется. В результате в этой области складывается очень тревожная структура знаний и компетенций.
Мы недавно организовывали хакатон с одним из банков по решению задач использования искусственного интеллекта в сельском хозяйстве. Хакатон – это когда предлагается несколько задач, и соревнующиеся команды должны за заданное время решить их, после чего жюри по заранее определенным критериям определяет победителей. Когда мне коллеги рассказали о том, кто там победил, я был сначала очень удивлен, потому что в решении одной из задач победила команда, состоящая из двух старшеклассников и одного студента, при том, что команды были самые разные, начиная от школьников, заканчивая лицами, обремененными высокими учеными степенями. Казалось бы, профессор должен обыграть школьника в интеллектуальной задаче. Но это не всегда так.
Есть несколько порогов вхождения в предметную область, связанную с искусственным интеллектом (точнее – с искусственными нейронными сетями). Первый порог очень низкий. Это уровень пользователя компьютерных программ, для чего достаточно знаний в объеме старших классов физмат школы. Достаточно подобрать параметры и модифицировать программу на Python. Следующий порог, который тоже невысок, требует уровня знаний 2-3 курса инженерного или математического вуза: написать программу самому, подобрать (найти в Интернете) данные для машинного обучения. А следующий уровень – это уже глубокие, по-настоящему научные работы, дающие существенное повышение качества решений системы, включая доказательство теорем и тому подобное. На этот уровень выходит одна сотая процента, а все остальные так и толкутся на двух нижних «ремесленных» уровнях. Но при этом и у них, и у окружающих их обывателей создается иллюзия, что они делают науку и продвигают искусственный интеллект. И самое печальное, что эта же иллюзия создается не только у обывателей или журналистов, но и у тех, кто выделяет деньги на соответствующие исследования и определяет, чему нужно, а чему не нужно учить подрастающее поколение. И вот очень влиятельные люди уже заявляют, что нам не нужны математические школы или что в обычной школе не надо изучать физику. Вот что самое страшное.

Подготовил Леонид Ситник, редакция сайта РАН

https://new.ras.ru/mir-nauky/news/vokru ... ntsiy-aka/


Вернуться наверх
 Профиль  
 
 Заголовок сообщения: Re: Вокруг искусственного интеллекта
СообщениеДобавлено: Пн июл 17, 2023 5:53 pm 
Не в сети

Зарегистрирован: Вт сен 28, 2004 11:58 am
Сообщений: 11572
Такой тревожный интеллект

Газета "Правда" №74 (31423)18—19 июля 2023 года
4 полоса
Автор: Подготовил Александр ОЗЕРОВ.

В Москве в Доме союзов фракция КПРФ в Государственной думе провела «круглый стол» на тему «Развитие искусственного интеллекта в России: угрозы и возможности». В обсуждении открывающихся здесь перспектив и проблем, связанных с этой всё плотнее входящей в нашу жизнь революционной технологией, вместе с депутатами приняли участие руководящие работники министерств, ведомств, корпораций, ведущие эксперты в области искусственного интеллекта (ИИ), цифровизации экономики и государственного управления, известные учёные и представители общественных организаций.

Из выступлений участников

Опираться на Толстого и Достоевского
Геннадий ЗЮГАНОВ, Председатель ЦК КПРФ, руководитель фракции коммунистов в Госдуме:
— Возможности у искусственного интеллекта, конечно, колоссальные. Но с каждым днём возрастают и угрозы. Поэтому надо, очень внимательно осмыслив проблему, подготовить и общество, и каждую семью, чтобы, избегая ненужных рисков, использовать эти возможности максимально.
Искусственный интеллект пытаются сопоставить с человеческим. Однако человек отличается от всего остального, прежде всего памятью, творчеством и состраданием. Что касается памяти, то машина уже решила многие задачи. И в творчестве у неё, пусть пока и с ошибками, но уже что-то начинает получаться. Что же касается морали, духовности и сострадания, то здесь рассчитывать на машину практически невозможно. И если мы этого не учтём, то впереди нас ждут тяжелейшие испытания.
Помню, как меня поразила точность оценки причины чернобыльской аварии, которую в своё время дал крупнейший учёный, академик Валерий Легасов, делавший доклад по этому вопросу от имени советской стороны в ООН и ЮНЕСКО. Его основной вывод заключался в следующем: главная причина аварии в том, что те, кто эксплуатировал станцию, опирались на таких же технократов, как они сами. Они не опирались на Толстого и Достоевского, их нравственно-культурный уровень не соответствовал сложности управляемого объекта. Сейчас такое сплошь и рядом.
У нас во фракции работал Жорес Иванович Алфёров, гениальный учёный и изобретатель. Человек, который, объединив Академию наук с высшим образованием, с талантливыми ребятами из спецшкол и с суперсовременным производством создал университет будущего, где уже внедряется искусственный интеллект.
Мы предлагали этот вариант развития для всех крупных промышленных центров страны. К сожалению, вопрос решается плохо. Мы его «вмонтировали» в наш проект закона «Образование для всех», позволяющего формировать личность интеллектуально, духовно и морально развитой. Увы, наши предложения были отвергнуты. Сейчас думаем над тем, как ограничить варваров, которые готовы использовать искусственный интеллект не только в корыстных, но и в человеконенавистнических своих интересах. Перед всеми нами стоит очень сложная задача.
Какие здесь риски? Производительность, если быстро внедрять ИИ, вырастет ежегодно минимум почти на полтора процента. Но тут же увеличится безработица. И те, кто останется не у дел и без еды, возьмут за горло тех, кто всё это внедрил и не обеспечил их самым необходимым. Вот вам и бесчеловечное государство.
А если, например, вас отключат от определённых карт и систем и вы не сможете войти ни в метро, ни в поликлинику, не сможете ничего купить, то вы попадёте в такой концлагерь, о котором Гитлер даже и не мечтал. Это бесчеловечное государство уже торчит отовсюду. Попробуйте записаться в некоторые поликлиники или вызвать «скорую помощь», и вы просто уморитесь...
Выборы. Если раньше боролись с ворами в законе, то теперь будут законные воры, которые станут внедрять «трёхдневку», «дистант» и полностью ликвидируют гражданский и партийный контроль за избирательной кампанией. Вот и получим результат, который невозможно проверить. А на завтра — на улице бунт.
Здесь проблема ответственности встаёт в полный рост. И она никак нигде не значится и не решается. Если какому-нибудь сумасшедшему руководителю попадёт в руки такой инструментарий, чем это закончится, одному богу известно.
Поэтому для нас принципиально важно выработать сегодня подходы, которые мы положим в основу при подготовке нового бюджета и наших рекомендаций президенту и правительству.

Внесём свою лепту
Михаил ЩАПОВ, первый заместитель председателя комитета Госдумы по бюджету и налогам (фракция КПРФ):
— Развитие искусственного интеллекта, безусловно, изменит экономическую, технологическую и политическую модели устройства общества. Но для нас, для законодателей, важно, как это отразится на жизни наших граждан и как сделать эти изменения для них более комфортными и безболезненными.
Здесь в первую очередь в голову приходит давний страх человечества перед его уничтожением высокоразвитыми машинами. Все мы читали научную фантастику, в последнее время об этой опасности говорят известные учёные и общественные деятели. Но есть и более вероятные угрозы и риски. Например, использование возможностей искусственного интеллекта для обмана людей, мошенничества, манипулирования общественным мнением через те же дипфейки, которые уже используются в политической борьбе.
Отдельно здесь нужно отметить риски применения ИИ в политике и избирательном процессе. С одной стороны, есть вероятность манипуляции результатами, а с другой — из-за отсутствия законодательной базы мы можем столкнуться с противоречивыми решениями госорганов в отношении кандидатов, которые используют искусственный интеллект и нейросети в своей агитации.
Ещё одна угроза — это применение искусственного интеллекта в военных целях, в шпионаже, попытках повлиять на другие государства вплоть до смены их политического строя. По сути, то государство, которое сможет стать лидером в этой сфере, получит в свои руки сверхоружие, не уступающее по значению ядерному.
Отдельная и сложная проблема, с которой уже сталкиваются разработчики искусственного интеллекта, — это когда для достижения хороших целей ИИ использует плохие методы. Была, например, ситуация, когда разработчики с помощью искусственного интеллекта пытались увеличить время просмотра видеороликов в Ютьюбе. И чтобы выполнить эту задачу, ИИ начал предлагать пользователям ролики всё более жёсткого и даже жестокого содержания, удерживая таким образом их внимание. В итоге цель была достигнута, но сомнительным с точки зрения этики и опасным для психики человека способом.
Есть также угроза, связанная с трансформацией рынка труда и цифровой безработицей. Да, мы осознаём, что при технологическом переходе часть профессий исчезает, но появляются новые. Однако, как показывает история, в моменте это приведёт к тому, что миллионы людей останутся без работы и государство должно будет оказать им помощь.
Мы эту проблему детально разбирали несколько лет назад в рамках двух «круглых столов». Тогда эксперты пришли к выводу, что в течение ближайших десятилетий в России внедрение различных видов искусственного интеллекта может привести к потере у нас 20 миллионов рабочих мест. При этом утверждают, что ИИ избавит нас от рутинного труда. Но здесь есть и другая проблема: чтобы стать профессионалом, нужно набить руку как раз на рутинном труде. Откуда у нас появятся люди с высокими компетенциями, если мы избавим их от необходимости уметь делать простые операции?
Ещё одна проблема — это обесчеловечивание государственных процедур, замена живых людей на сервисы, использующие нейросети, это приводит к тому, что люди всё чаще сталкиваются с бездушной машиной, которая не в состоянии проявлять к ним эмпатию. Наверное, все мы знакомы с ситуацией, когда чат-боты служб поддержки отвечают формально, не дают разобрать вопрос по сути, не переключают звонящего на живого специалиста. И оценок, как это влияет на социальное самочувствие граждан, пока нет.
Следующий вопрос — растущая зависимость госструктур от нейросетей и проблема так называемого чёрного ящика. С одной стороны, нейросети, внедряясь в работу госорганов, делают их более эффективными, однако есть риск, что чем больше сети саморазвиваются и усложняются, тем меньше мы будем понимать, как они работают и устроены.
Есть и проблема ответственности. В юридическом сообществе остро обсуждается вопрос: кто будет отвечать за преступления и ошибки, совершённые нейросетями, например за наезд автомобиля с автопилотом на человека? Ведь были случаи, когда автомобиль с автопилотом специально проезжал на красный сигнал светофора или когда робот-манипулятор наносил травмы работнику, и внешне это выглядело как действие намеренное.
Хочу напомнить, что в России основы политики в отношении развития искусственного интеллекта утверждены указом президента от 10 октября 2019 года № 490. Им же утверждена национальная стратегия развития искусственного интеллекта на период до 2030 года. В стратегии указано, что должны быть созданы условия для эффективного взаимодействия государства, организаций (в том числе научных) и граждан в сфере развития ИИ, что позволит российским технологиям искусственного интеллекта занять значительную долю мирового рынка.
Считаю, что наша сегодняшняя работа как раз и должна внести свою лепту в достижение этих целей.
Твори и думай сам
Олег СМОЛИН, первый заместитель председателя комитета Госдумы по науке и высшему образованию (фракция КПРФ):
— Я напомню слова Владимира Путина: «Кто будет владеть искусственным интеллектом, тот будет владеть миром». Напомню и известное высказывание знаменитого астрофизика Стивена Хокинга: «Бойтесь искусственного интеллекта: у него могут быть цели, не совпадающие с целями человечества».
Кто из них прав, мы к этому вопросу ещё вернемся, а пока о конкретных проблемах.
Об одной из них уже говорили: искусственный интеллект и рабочие места. Есть две точки зрения. Первая: технологические революции никогда не приводили к сокращению рабочих мест, а только к замене одних рабочих мест другими в иных сферах. Но такие аналогии — не доказательства. Мы же знаем, что прежние войны не могли уничтожить человечество, а война ядерная может. В этом смысле ситуация с искусственным интеллектом во многом уникальна.
Согласно второй точке зрения, ожидается колоссальная технологическая безработица, причём не столько в области ручного труда, сколько в области труда интеллектуального. Например, искусственный интеллект вряд ли вытеснит медсестру, которая ставит капельницы, но спокойно заменит доктора, который работает исключительно по европейским протоколам. Точно так же ИИ никогда не вытеснит творческого учителя, но легко заменит репетитора. Думаю, что проблемы будут и у работников поп-культуры. Надеюсь, искусственный интеллект напишет музыку лучше, чем Моргенштерн.
Скорее всего, будет происходить некоторое разделение: для бедных и средних слоёв — робот и искусственный интеллект; для богатых и супербогатых — живые люди.
Вторая тема, как ни странно, пенсии. Если верно то, что до 20 миллионов человек могут потерять работу в результате революции, связанной с искусственным интеллектом, то возникает вопрос: что делать с оставшимися не у дел людьми? Есть три решения. Первое — базовый доход. Второе — увеличение доли работников сферы образования, медицины, науки и культуры, что, на мой взгляд, очень рационально. Ну и третье решение — это снижение пенсионного возраста.
Много раз обсуждалась проблема защиты диплома с помощью ChatGPT. На самом деле это простой вопрос. Достаточно изменить здесь форму, оценивая знания дипломников не по их бумагам, а по тому, как они отвечают на вопросы, — и проблема будет решена. Кроме того, вероятно, уже скоро появятся технологии, где ИИ будет определять, что именно разработано искусственным интеллектом.
У нас по-прежнему очень бурно обсуждаются вопросы электронного обучения. Но, на мой взгляд, обсуждаются довольно примитивно, а именно: запрещать или не запрещать? На самом деле простого ответа тут нет. Совершенно очевидно, что злоупотребление информационными технологиями в школе вредно и с точки зрения здоровья, и с точки зрения интеллектуального развития учеников.
А вот электронные университеты — это веление времени. И если бы мы не тормозили их развитие, мы не потеряли бы из-за оттока за рубеж десятки, а может быть, сотни тысяч молодых людей, которые через электронное обучение сначала приглашались в западные университеты, а затем, соответственно, попадали и в зарубежные компании.
Главное, на мой взгляд, вот в чём. Мы знаем, что механизация развития транспорта и тому подобное сделали человека более слабым физически. Надо не допустить, чтобы ИИ сделал то же самое с его интеллектом. Поэтому необходимы определённые ограничения — читать, думать, считать, творить человек должен уметь сам. Искусственный интеллект должен выступать только в роли помощника — и не более. Помните советский фильм «Приключения Электроника», который начинается с песни: «Вкалывают роботы, а не человек», а заканчивается тем, что герой приходит к выводу — свои проблемы он должен решать сам.
Нам необходима большая программа развития искусственного интеллекта и микроэлектроники. Пока же китайская программа микроэлектроники, рассчитанная на пятилетку, оказалась в 32 раза больше по объёму финансирования, чем аналогичная российская программа, рассчитанная на десять лет. Мало того: в 2025 году у нас предполагается сократить расходы на микроэлектронику в шесть раз. Коллеги, мы такими темпами вперёд далеко не уйдём.
Необходимо также договариваться (по возможности на международном уровне, а если нет, то принимать решение самим) об определённых ограничениях в использовании ИИ, чтобы интеллектуальные способности детей и студентов не атрофировались.
Так кто же прав — Владимир Путин или Стивен Хокинг? Наверное, оба. А самое главное — прав Карл Маркс, который сказал так: «Культура, если она развивается стихийно, а не направляется сознательно... оставляет после себя пустыню». Так что, если не будем управлять искусственным интеллектом, то риски превзойдут достижения.
Требует тщательного контроля
Иван БАБИЧ, заместитель председателя комитета Госдумы по финансовому рынку (фракция КПРФ):
— Если посмотреть на открывающиеся перспективы внедрения искусственного интеллекта, то они видятся колоссальными. Взять хотя бы китайский автопром. Если пять лет назад это были какие-то бесформенные непонятные автомобили, то сейчас, смотря на разнообразие удачных дизайнерских решений, просто поражаешься! Оказалось, что это искусственный интеллект, который достаточно точно угадывает предпочтения потребителей. Он скоро заменит целые дизайнерские и конструкторские бюро, улучшит за доли секунды возможности микросхем и архитектуру чипов. То же самое можно сказать о проектировании зданий и наполнении их внутренней инженерией.
Естественно, какая-то часть людей потеряет рабочие места. Но наиболее квалифицированные, наоборот, получат огромные возможности.
Можно до бесконечности говорить о плюсах искусственного интеллекта. Но всё же очень настораживает применение его в повседневной жизни, особенно в части цифрового портрета. Рано или поздно мы все перейдём на онлайн-приложения для взаимодействия с государственными и финансовыми учреждениями. И вот здесь таится множество мин, которые могут быть заложены разработчиками алгоритмов. Большинство людей доверчивы, некоторые ещё и достаточно ленивы. И после внедрения в повседневную жизнь помощника в виде искусственного интеллекта такой человек доверит ему свои пароли и доступы к цифровому профилю. Этим обязательно воспользуются мошенники, начиная от возможности взлома самого профиля и заканчивая тем, что искусственный интеллект по своему усмотрению будет управлять цифровым профилем, выдавая человеку те данные, которые посчитает нужным.
Сегодня сложно сказать, каким образом ИИ станет формировать ту или иную точку зрения, выдавая человеку те ссылки и ответы, которые посчитает наиболее подходящими. В этом случае не человек будет управлять алгоритмом, а наоборот. Это уже отчасти происходит в поисковиках «Гугл» и «Яндекс».
И ещё. Анализируя большие объёмы данных, искусственный интеллект сделает абсолютно логичные выводы об определённых категориях людей: кто-то нередко нарушает законы, кто-то финансово нестабилен, у кого-то частые страховые случаи. Спираль дискриминации этих групп финансовыми институтами будет закручиваться, что явно создаст некий перекос в обществе.
Всё это требует тщательного контроля как при разработке законов, так и при дальнейшем использовании искусственного интеллекта.
В рамки закона
Георгий КАМНЕВ, заместитель председателя комитета Госдумы по контролю (фракция КПРФ):
— Наиболее серьёзный прогресс в использовании ИИ сейчас наблюдается в здравоохранении. И здесь возникает вопрос: к каким данным давать доступ искусственному интеллекту? Например, в Северной Америке искусственному интеллекту открыты обезличенные данные всех пациентов. Очевидно, что в таком случае ИИ будет давать врачу более точный медицинский прогноз. В Европе этот вопрос решён по-другому. Там к обезличенным персональным данным у искусственного интеллекта есть доступ только в случае, если на то получено разрешение самого пациента или его родственников.
Вот два варианта развития событий за рубежом. Нам тоже нужно дать здесь какой-то ответ и закрепить его нормативно.
Также хотел бы отметить, что искусственный интеллект в здравоохранении развивается таким образом, что первоначальное заключение даёт именно он, а потом уже врач. Многое тут зависит от того, какими данными обладает искусственный интеллект. Думаю, что в этом вопросе нам нужно принять наиболее прогрессивную точку зрения.
Ещё одна сфера, где сейчас также активно используется искусственный интеллект, — это правосудие. Разумеется, вынесение вердиктов здесь может делать только судья, а вот в автоматизации рутинных задач, обеспечении доступности населения к судопроизводству ИИ может хорошо помочь. Например, при подаче в суд документов, когда программа следит за правильностью их подготовки. Или, допустим, в прогностическом так называемом правосудии, чтобы оценить перспективность обращения в суд. Ведь в каком-то случае этого делать нет смысла. Здесь тоже нам нужно будет решить вопрос о доступности баз данных.
Также хотел затронуть и вопрос интеллектуальной собственности. Есть несколько вариантов ответов на него. Первый — результат интеллектуальной деятельности остаётся за пользователем, который вводит в программу запрос. Но дело в том, что он, по сути, не создаёт здесь никакого интеллектуального продукта — это делает программа. Можно закрепить право на результат за её разработчиком, но ведь не он осуществляет конкретный запрос. Верно? Полагаю, что результат работы искусственного интеллекта вообще не должен являться объектом интеллектуальных прав.
Обязательно нужно разрабатывать стандартизацию, то есть определить, какими данными и как будет использоваться ИИ в той или иной сфере. Необходима и сертификация искусственного интеллекта, что тоже поможет нам избежать больших проблем.
Потенциал ИИ — в социализме
Денис ПАРФЁНОВ, член комитета Госдумы по бюджету и налогам (фракция КПРФ):
— В последнее время в этой сфере был сделан, безусловно, гигантский скачок, и очевидно, что в обозримой перспективе это движение будет лишь ускоряться. Поэтому нужно очень чётко поставить вопрос: чего мы хотим, какое состояние развития технологий является для нас желательным?
Совершенно очевидно, что есть крайне перспективные междисциплинарные направления. Например, на стыке ИИ и робототехники открывается перспектива создания роботов-помощников, которые будут в состоянии выполнять, в том числе, функции, связанные с мелкой моторикой. И та страна, которая первой освоит производство такой техники, конечно, не просто создаст новую отрасль производства, а сформирует новый рынок, который будет обладать колоссальной востребованностью. За счёт этого она получит гигантское преимущество.
У искусственного интеллекта огромный потенциал в помощи человеку для управления экономикой. Я искренне убеждён, что из сочетания мощной вычислительной техники и средств телекоммуникации именно плановое управление может обрести новое качество, недостижимое прежде. Ведь одна из причин разрушения СССР — это многократное увеличение сложности его экономики, в то время когда качество научного управления и планирования не вполне соответствовало новым требованиям. Сейчас за счёт новой техники есть возможность преодолеть это ограничение. Плановая экономика могла бы подняться на новую, прежде недосягаемую высоту.
В МГУ уже давно существует целая школа научного стратегического планирования на основе динамической модели межотраслевого баланса, которую возглавляет профессор Елена Ведута. Пожалуйста, бери, соединяй с ИИ, ставь это в рамки государственной политики и получай потрясающий результат! Пока, к сожалению, у нас не спешат это делать. Причину мы все хорошо понимаем: подобное управление значительно сократит возможности для личного обогащения определённого круга лиц.
Если сохранится действующая система олигархического управления, основанная на приоритете максимизации прибыли, то новейшие технологии будут использоваться не на благо большинства, а могут стать воплощением самых мрачных прогнозов об электронном концлагере.
Действующий капиталистический строй в части использования технологий ИИ несёт в себе гораздо больше рисков, чем преимуществ. В полной мере раскрыть положительный потенциал этой системы можно только в обществе, построенном на социалистических принципах.
К слову, в проекте программы КПРФ на выборах мэра Москвы более пяти процентов его текста — результат взаимодействия с нейросетью. Это если не единственный, то, по крайней мере, один из первых в мире политических документов, который стал результатом совместного творчества человека и машины.
Выборы с дипфейками?
Александр МИХАЛЬЧИК, заведующий сектором отдела ЦК КПРФ по проведению избирательных кампаний:
— Искусственный интеллект уже вовсю применяется в выборных процессах. Мы в КПРФ работаем в этом направлении всего полгода, но уже успели «обкатать» некоторые технологии на досрочных и промежуточных выборах, которые прошли в стране в апреле. Результаты получились интересными, есть определённые успехи, достижения, но имеются и сложности. В общем, нормальный рабочий процесс, если бы не одно, и очень существенное, «но»: в начинающейся широкой избирательной кампании (как и в последующей за ней президентской) до сих пор не обозначены «правила игры» с искусственным интеллектом.
Что здесь можно, а чего нельзя? Этот вопрос сегодня задают многие политтехнологи, социологи и юристы, задействованные в выборном процессе. Понятно, что использование сети «Кандинский» или её аналогов от «Сбера» здесь недопустимо — это прямое нарушение авторских прав. Но что делать с иностранными чатами и платформами? Ведь руководители нашей страны открыто говорят, дескать, «благородное пиратство» вполне допустимо. Однако при этом молчат главные регулирующие и контролирующие органы — Генпрокуратура, правительство, ЦИК.
А ведь ещё есть и суды. Мы же прекрасно понимаем, что, допустим, представители американской компании «Миджорни» не пойдут в суд снимать с выборов, например, в Якутии кандидата за неправомочное использование их ресурса. То есть получается, что фактически и нарушения как такового нет! Но разве не найдётся какая-нибудь «оскорблённая душа» из числа оппонентов кандидата, которая подаст иск о таком нарушении. И что решит суд, если нет чётких рекомендаций регуляторов?
Председатель ЦИК Памфилова недавно заявила, что видит риски вмешательства в наши выборы из-за рубежа с помощью хакерских атак. И при этом продолжает насаждать дистанционное электронное голосование — штуку весьма непрозрачную, а следовательно, уязвимую. В связи с этим «всплывает» ещё один аспект: учитывая сегодняшние возможности ИИ, мы вполне можем столкнуться в президентской кампании не только с хакерскими атаками, но и с валом дипфейков (подделанные с помощью ИИ аудио-, видео- и фотоматериалы. — Ред.).
Почему ЦИК не вносит никаких рекомендаций по маркировке? Почему на все предметные вопросы нам по-прежнему отвечают некие «заклинатели», что, мол, спите спокойно, в России всё прекрасно! Ещё недавно таким «заклинателем» был небезызвестный гражданин Алексей Венедиктов. Теперь его «забанили» (запретили. — Ред.), а пришедшие ему на смену талдычат всё те же слова по той же бумажке.
Регулирование норм использования ИИ необходимо. Просим ускорить этот процесс, чтобы наша работа в избирательных процессах была чётко и понятно регламентирована, чтобы не было произвола и перегибов на местах.
Предлагаю внести в рекомендации «круглого стола» дополнения, адресованные Центральной избирательной комиссии, чтобы хотя бы на ближайших выборах она разрешила использовать искусственный интеллект в работе с изображениями и видеоматериалами.
Из рекомендаций «круглого стола»
Участники «круглого стола» рекомендуют органам власти обратить внимание на следующие проблемы:
Министерству труда и социальной защиты Российской Федерации и комитету Государственной думы по труду, социальной политике и делам ветеранов при подготовке документов долгосрочного планирования рынка труда в России учитывать проблему и риски цифровой безработицы как следствие развития ИИ.
Министерству цифрового развития, связи и массовых коммуникаций Российской Федерации, комитету Государственной думы по информационной политике, информационным технологиям и связи:
При рассмотрении любых мер по внедрению ИИ в системы государственного управления учитывать необходимость сохранения контакта граждан с чиновниками-людьми по любым вопросам.
Проработать вопрос о едином банке данных технологий ИИ, использованных для разработки новых государственных сервисов с целью сохранения технологий для будущих поколений разработчиков государственных сервисов, основанных на ИИ.
Рассмотреть вопрос о классификации систем ИИ и физических инструментов, использующих ИИ, по степени риска для пользователей. Регламентирование этих нишевых сегментов по различным критериям, включая возрастной и профессиональный.
Предлагается рассмотреть вопрос о возложении ответственности (имущественной в первую очередь) на компании-создатели ИИ за соблюдение в процессе создания и использования ИИ фундаментальных, общечеловеческих принципов здоровья, безопасности, охраны окружающей среды, законности и правопорядка.
Проработать и установить жёсткие критерии регулирования приборов и систем, использующих ИИ, такие как: медицинские приборы с применением ИИ, основанные на ИИ системы управления критической инфраструктурой и т.п.
Министерству цифрового развития, связи и массовых коммуникаций Российской Федерации и правоохранительным органам:
Предлагается рассмотреть вопрос о запрете систем предиктивной аналитики, основанных на ИИ, для профилактики правонарушений. Предиктивной аналитикой могут и должны заниматься исключительно специалисты-криминалисты.
Рассмотреть вопрос о запрете использования систем распознавания лиц и других систем «удалённой биометрической идентификации» в режиме реального времени в местах массового сосредоточения людей, для компаний-операторов ИИ, за исключением ФСБ России.

https://gazeta-pravda.ru/issue/74-31423 ... intellekt/


Вернуться наверх
 Профиль  
 
 Заголовок сообщения: Re: Вокруг искусственного интеллекта
СообщениеДобавлено: Чт июл 27, 2023 12:42 pm 
Не в сети

Зарегистрирован: Вт сен 28, 2004 11:58 am
Сообщений: 11572
Колонка редколлегии

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, НЕЙРОСЕТИ, БОЛЬШИЕ ДАННЫЕ
И МАТЕМАТИЧЕСКИЕ МЕТОДЫ ИСССЛЕДОВАНИЯ

© Александр Иванович Орлов
Московский государственный технический университет им. Н.Э. Баумана,
Россия, 105005, Москва, Бауманская 2-я, д. 5; e-mail: prof-orlov@mail.ru

ARTIFICIAL INTELLIGENCE, NEURAL NETWORKS, BIG DATA
AND MATHEMATICAL RESEARCH METHODS

© Alexander I. Orlov
Bauman Moscow State Technical University, 5, 2-ya Baumanskaya ul., Moscow, 105005, Russia; e-mail: prof-orlov@mail.ru

В настоящее время часто используются новомодные термины, такие, как искусственный интеллект, большие данные, нейросети, цифровая экономика. Полезно обсудить, что именно стоит за этими терминами, как они соответствуют тем или иным разделам математических методов исследования. Основной наш вывод состоит в том, что за распространенными ныне терминами стоят давно разрабатываемые области, разница лишь в названиях. По формулировке [1], "слова и их сочетания (термины) используются различные, а смысл, который стремились передать их интерпретаторы, сохраняется прежним". Безобидна ли игра с терминами? Акад. РАН Д.А. Новиков обоснованно считает, что "Вокруг искусственного интеллекта складывается очень тревожная структура знаний и компетенций" [2],
В научной области "математические методы исследования" происходят революционные преобразования. Они видны ведущим исследователям (в частности, авторам раздела "Математические методы исследования" нашего журнала), но пока мало заметны массе тех, кто применяет эти методы для решения актуальных задач конкретных прикладных областей (авторам других разделов).
Для анализа современной ситуации оказались весьма полезными основополагающие научные результаты, полученные основателем (вместе с Б.В. Гнеденко) и многолетним руководителем раздела "Математические методы исследования" профессором Московского государственного университета Василием Васильевичем Налимовым. Он выпустил (совместно с З.М. Мульченко) первую в мире монографию по наукометрии [3], посвященную анализу развития науки как информационного процесса. Согласно его подходу вклад в науку исследователей и их групп следует оценивать по числу цитирований их работ в дальнейших научных публикациях. Кратко говоря, подход В.В. Налимова основан на простом соображении: раз работу цитируют, значит, она нужна. Чем больше цитируют - тем больше вклад в развитие науки. Этот вклад можно количественно оценить с помощью Российского индекса научного цитирования (РИНЦ).
С удовлетворением можно констатировать, что работы авторов раздела "Математические методы исследования" вносят заметный вклад в развитие науки. Так, по данным РИНЦ автор настоящей работы - один из наиболее цитируемых отечественных математиков и экономистов. Этот факт дает основания полагать, что наши обсуждения ряда вопросов развития науки имеют надежные основания и будут интересны читателям.
В информационном процессе развития науки выявлена определяющая роль информационного барьера [4]. Речь идет о том, что интеллектуальные возможности конкретного исследователя ограничены тем, что воспринять он может лишь малую часть накопленного в науке. Покажем на упрощенном примере. Примем, что за неделю удается изучить одну серьезную публикацию - книгу или статью. Тогда за год - 52 публикации, а за 100 лет - 5200. Сравним с общим числом публикаций, скажем, по математическим методам исследования. По нашей оценке, их более миллиона, и каждый год добавляются десятки тысяч. Следовательно, каждый научный работник может непосредственно познакомиться лишь с 0,5% публикаций по своей специальности. Представление обо всем массиве публикаций складывается на основе мнения окружающей научной общественности.
Информационный барьер мешает распространению новых идей. Поэтому нет ничего удивительного в том, что, например, распространенные в настоящее время учебники по теории вероятностей и математической статистике по своему научному уровню соответствуют середине ХХ в.
Для преодоления информационного барьера довольно часто используют введение новой терминологии. Новый термин привлекает внимание и дает преимущества при финансировании и организации новых научных структур [4]. Например, в конце ХХ в. заметного эффекта добились те, кто стал использовать новый термин "интеллектуальный анализ данных" вместо прежнего "прикладная статистика".
Разберем ряд новомодных терминов и выявим стоящие за ними давно известные области знаний.
Термин "искусственный интеллект" понимают по-разному. Будем исходить из определения, данного в "Национальной стратегии развития искусственного интеллекта на период до 2030 года": принято следующее определение: "... искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений" [5]. В этом определении не говорится прямо про научную основу "комплекса технологических решений". По нашему мнению, в качестве важной составляющей такой основы можно использовать математические методы исследования, включая высокие статистические технологии, в том числе нечисловую статистику, теорию и практику экспертных оценок, статистические методы анализа данных. Таким образом, автор настоящей работы, занимается проблемами искусственного интеллекта около полвека (первые статьи напечатаны в 1972 г.), хотя в ХХ в. и не использовал термин "искусственный интеллект". Ссылаясь на книгу 1974 г. сотрудников Института проблем управления В.Н. Вапника и А.Я. Червоненкиса «Теория распознавания образов» , Д.А. Новиков констатирует, что "Институт проблем управления РАН – родина искусственного интеллекта, как минимум в России" [2], хотя в работах В.Н. Вапника и А.Я. Червоненкиса искусственный интеллект не упоминался.
При распространении новой терминологии информационный барьер отрезает от исследователей массив научных результатов, сформулированных в прежних терминах [4]. Причина понятна - интеллектуальные возможности научных работников нацеливаются на изучение и развитие работ с использованием новомодной терминологии.
С целью преодоления информационного барьера автор настоящей работы счел возможным изменить при переиздании название серии своих монографий-учебников "Нечисловая статистика" (2009), "Экспертные оценки" (2011) и "Статистические методы анализа данных" (2012). Первоначально серия книг называлась "Организационно-экономическое моделирование", при переиздании серии в 2022 г. оно было изменено на "Искусственный интеллект".
Термин «нейросетевые методы» мы обсуждали в [6]: "Сейчас этот термин весьма популярен. Как мы установили в [4], под нейросетевыми методами понимают разнообразные математические методы (и созданные на их основе алгоритмы и программные продукты), построенные по аналогии с представлениями о работе сетей нервных клеток живых существ. Как известно, прототипы таких методов были построены в середине прошлого века, опираясь на свойства процессов мышления, протекающих в мозге человека. Основоположники нейросетевых методов попытались смоделировать эти процессы. Естественно, что они исходили из знаний того времени. Отметим, что в настоящее время хорошо известно, что человеческий мозг работает иначе, чем предполагают энтузиасты нейросетей.
Для решения каких задач применяют нейросетевые методы? Их обычно используют для построения правил классификации (другими словами, диагностики, дискриминации, распознавания образов). Исходные данные – обучающие выборки. Теория математической статистики позволяет сравнивать алгоритмы классификации по качеству. Для задач диагностики целесообразно проводить сравнение на основе прогностической силы алгоритма (см., например, [7]). Оказывается, что нейросетевые методы во многих случаях не дают оптимальных решений. Так, обсудим базовую задачу диагностики. Необходимо принять решение о том, к какому из двух классов причислить появившийся объект. Для каждого такого класса имеется обучающая выборка. Установлено (см., например, [7]), что следует принимать решение, исходя из непараметрических оценок плотностей вероятностей, рассчитанных для классов с помощью анализа обучающих выборок. Этот метод является оптимальным при больших объемах обучающих выборок. Ни один нейросетевой метод не может дать лучшего результата.
Приходится констатировать, что мода на нейросети приводит к тому, что оптимальные методы и алгоритмы не используются. Просто потому, что забыты, их место среди интеллектуальных инструментов специалистов заняли нейросети. Одна из причин такой забывчивости – ограниченность возможностей мозга человека воспринимать, осмысливать и применять информацию. Очевидно, что указанное обстоятельство снижает эффективность технологических решений, разрабатываемых в области искусственного интеллекта.
На основе анализа конкретных методов заключаем [4], что нейросети, методы распознавания образов, и, например, генетические алгоритмы, – другие названия ряда разделов прикладной статистики (статистических методов анализа данных), которые разрабатываются с давних времен, задолго до нынешней моды на указанные термины. Усилиями журналистов и публицистов, не очень разбирающихся в идеях и научных результатах прикладной статистики, новая терминология оказалась в центре внимания научной общественности. Это произошло по вненаучным причинам, которые выявлены в заключительной части статьи [4]".
Еще один популярный термин - большие данные. Современные информационные технологии позволяют анализировать все (в идеале) данные по определенному вопросу, имеющиеся в Интернете. Хорошим примером является РИНЦ, в электронной библиотеке которого собраны данные о миллионах научных публикаций (и часто тексты этих публикаций). Отметим, что всеобщий охват данных может дать возможность получить обоснованные выводы только тогда, когда данные не имеют систематических ошибок, как это часто бывает для социально-экономических данных.
Для работ по аналитической химии, физическим методам исследования и контроля, механике материалов, сертификации веществ и материалов характерно использование результатов измерений (наблюдений, анализов, опытов, испытаний, обследований), полученных в исследовательской лаборатории. Для изучения таких данных и предназначена прикладная статистика и другие математические методы исследования. При этом термин "большие данные" раскрывается с другой стороны. Полвека назад, при отсутствии мощных вычислительных средств, используемые методы основывались прежде всего на предельных теоремах теории вероятностей и математической статистики. Использование больших данных интерпретировалось при этом как переход к пределу при безграничном возрастании объемов выборок. Современные компьютеры с помощью соответствующих программных продуктов позволяют получать выводы для конкретных выборок, используя, например, метод статистических испытаний. Однако во многих случаях такие возможности будут доступны только в перспективе. В настоящее время использование предельных теорем в прикладной статистике по-прежнему актуально.
Подводя итоги, констатируем, что появление и распространение новых терминов зачастую наносит вред развитию науки как информационного процесса [3]. Как исследователю находить необходимую информацию, в том числе в ранее выпущенных литературных источниках? Может помочь РИНЦ. Естественно проводить поиск публикаций и авторов по числу цитирований. Как правило, больше цитируют добротные источники [8].

ЛИТЕРАТУРА
1. Игры терминов и ловушки Фукидида (от редакции) / Онтология проектирования. 2022. №3 (45).С. 273-277. URL: https://cyberleninka.ru/article/n/igry- ... i-fukidida (дата обращения: 09.02.2023).
2. Новиков Д.А. Вокруг искусственного интеллекта складывается очень тревожная структура знаний и компетенций [Электронный ресурс]. URL: https://new.ras.ru/mir-nauky/news/vokru ... 6720668306 (дата обращения 09.02.2023).
3. Налимов В.В., Мульченко З.М. Наукометрия. Изучение развития науки как информационного процесса. - М.: Наука, 1969. - 192 с.
4. Орлов А. И. Смена терминологии в развитии науки / Научный журнал КубГАУ. 2022. № 177. С. 232-246.
5. Указ Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации” [Электронный ресурс]. URL: https://www.garant.ru/products/ipo/prime/doc/72738946/ (дата обращения 27.02.2023).
6. Орлов А. И. О современных интеллектуальных инструментах экономики и менеджмента / Экономическая наука современной России. 2022. № 4 (99). С. 30–38.
7. Орлов А.И. Искусственный интеллект: нечисловая статистика. — М.: Ай Пи Ар Медиа, 2022. — 446 c.
8. Лойко В. И., Луценко Е. В., Орлов А. И. Современные подходы в наукометрии. – Краснодар: КубГАУ, 2017. – 532 с.

REFERENCES
1. Games of terms and traps of Thucydides (editor's note) / Ontologiya proektirovaniya. 2022. №3 (45).S. 273-277. URL: https://cyberleninka.ru/article/n/igry- ... i-fukidida (data obrashcheniya: 09.02.2023) [in Russian].
2. Novikov D.A. A very disturbing structure of knowledge and competencies is emerging around artificial intelligence [Elektronnyj resurs]. URL: https://new.ras.ru/mir-nauky/news/vokru ... 6720668306 (data obrashcheniya 09.02.2023) [in Russian].
3. Nalimov V.V., Mul'chenko Z.M. Scientometrics. Studying the development of science as an information process. - M.: Nauka, 1969. - 192 p. [in Russian].
4. Orlov A. I. Change of terminology in the development of science / Nauch. Zh. KubGAU. 2022. N 177. P. 232-246 [in Russian].
5. Ukaz President RF from 10 October 2019 N 490 "O razvitii iskusstvennogo intellekta v Rossijskoj Federacii" [Elektronnyj resurs]. URL: https://www.garant.ru/products/ipo/prime/doc/72738946/ (data obrashcheniya 27.02.2023) [in Russian].
6. Orlov A. I. About modern intellectual tools of economics and management / Economics of Contemporary Russia. 2022. N 4 (99). P. 30–38 [in Russian].
7. Orlov A.I. Artificial intelligence: non-numeric statistics. — M.: Aj Pi Ar Media, 2022. — 446 p. [in Russian].
8. Lojko V. I., Lucenko E. V., Orlov A. I. Modern approaches in scientometrics. – Krasnodar: KubGAU, 2017. – 532 p. [in Russian].

Публикация

1269. Орлов А.И. Искусственный интеллект, нейросети, большие данные и математические методы исследования / Заводская лаборатория. Диагностика материалов. 2023. Т.89. №7 . С. 5-7.


Вернуться наверх
 Профиль  
 
 Заголовок сообщения: Re: Вокруг искусственного интеллекта
СообщениеДобавлено: Сб авг 19, 2023 3:10 pm 
Не в сети

Зарегистрирован: Вт сен 28, 2004 11:58 am
Сообщений: 11572
Перспективы ИИ в российской экономике
18.08.2023 - Прокомментировать

Олег СМОЛИН, депутат Госдумы (КПРФ):

— В Москве в Доме союзов фракция КПРФ провела круглый стол на тему «Развитие искусственного интеллекта в России: угрозы и возможности». В обсуждении открывающихся здесь перспектив и проблем, связанных с этой все плотнее входящей в нашу жизнь революционной технологией, вместе с депутатами приняли участие руководящие работники министерств, ведомств, корпораций, ведущие эксперты в области искусственного интеллекта (ИИ), цифровизации экономики и государственного управления, известные ученые и представители общественных организаций.

В своем выступлении я напомнил слова Владимира Путина: «Кто будет владеть искусственным интеллектом, тот будет владеть миром». Напомню и известное высказывание знаменитого астрофизика Стивена Хокинга: «Бойтесь искусственного интеллекта: у него могут быть цели, не совпадающие с целями человечества».

Кто из них прав, мы к этому вопросу еще вернемся, а пока о конкретных проблемах.

Искусственный интеллект и рабочие места.

Есть две точки зрения. Первая: технологические революции никогда не приводили к сокращению рабочих мест, а только к замене одних рабочих мест другими в иных сферах. Но такие аналогии – не доказательства. Мы же знаем, что прежние войны не могли уничтожить человечество, а война ядерная может. В этом смысле ситуация с искусственным интеллектом во многом уникальна.

Согласно второй точке зрения, ожидается колоссальная технологическая безработица, причем не столько в области ручного труда, сколько в области труда интеллектуального. Например, искусственный интеллект вряд ли вытеснит медсестру, которая ставит капельницы, но спокойно заменит доктора, который работает исключительно по европейским протоколам. Точно так же ИИ никогда не вытеснит творческого учителя, но легко заменит репетитора. Думаю, что проблемы будут и у работников поп-культуры. Надеюсь, искусственный интеллект напишет музыку лучше, чем Моргенштерн.

Скорее всего, будет происходить некоторое разделение: для бедных и средних слоев – робот и искусственный интеллект; для богатых и супербогатых – живые люди.

Вторая тема, как ни странно, – пенсии. Если верно то, что до 20 миллионов человек могут потерять работу в результате революции, связанной с искусственным интеллектом, то возникает вопрос: что делать с оставшимися не у дел людьми? Есть три решения. Первое – базовый доход. Второе – увеличение доли работников сферы образования, медицины, науки и культуры, что, на мой взгляд, очень рационально. Ну и третье решение – это снижение пенсионного возраста.

Много раз обсуждалась проблема защиты диплома с помощью ChatGPT. На самом деле это простой вопрос. Достаточно изменить здесь форму, оценивая знания дипломников не по их бумагам, а по тому, как они отвечают на вопросы, – и проблема будет решена. Кроме того, вероятно, уже скоро появятся технологии, где ИИ будет определять, что именно разработано искусственным интеллектом.

У нас по-прежнему очень бурно обсуждаются вопросы электронного обучения. Но, на мой взгляд, обсуждаются довольно примитивно, а именно: запрещать или не запрещать? На самом деле простого ответа тут нет. Совершенно очевидно, что злоупотребление информационными технологиями в школе вредно и с точки зрения здоровья, и с точки зрения интеллектуального развития учеников.

А вот электронные университеты – это веление времени. И если бы мы не тормозили их развитие, мы не потеряли бы из-за оттока за рубеж десятки, а может быть, сотни тысяч молодых людей, которые через электронное обучение сначала приглашались в западные университеты, а затем, соответственно, попадали и в зарубежные компании.

Главное, на мой взгляд, вот в чем. Мы знаем, что механизация развития транспорта и тому подобное сделали человека более слабым физически. Надо не допустить, чтобы ИИ сделал то же самое с его интеллектом. Поэтому необходимы определенные ограничения – читать, думать, считать, творить человек должен уметь сам. Искусственный интеллект должен выступать только в роли помощника – и не более. Помните советский фильм «Приключения Электроника», который начинается с песни: «Вкалывают роботы, а не человек», а заканчивается тем, что герой приходит к выводу – свои проблемы он должен решать сам.

Нам необходима большая программа развития искусственного интеллекта и микроэлектроники. Пока же китайская программа микроэлектроники, рассчитанная на пятилетку, оказалась в 32 раза больше по объему финансирования, чем аналогичная российская программа, рассчитанная на десять лет. Мало того: в 2025 году у нас предполагается сократить расходы на микроэлектронику в шесть раз. Коллеги, мы такими темпами вперед далеко не уйдем.

Необходимо также договариваться (по возможности на международном уровне, а если нет, то принимать решение самим) об определенных ограничениях в использовании ИИ, чтобы интеллектуальные способности детей и студентов не атрофировались.

Так кто же прав – Владимир Путин или Стивен Хокинг? Наверное, оба. А самое главное – прав Карл Маркс, который сказал так: «Культура, если она развивается стихийно, а не направляется сознательно… оставляет после себя пустыню». Так что, если не будем управлять искусственным интеллектом, то риски превзойдут достижения.

https://sovross.ru/2023/08/18/perspekti ... ekonomike/


Вернуться наверх
 Профиль  
 
Показать сообщения за:  Сортировать по:  
Начать новую тему Ответить на тему  [ Сообщений: 4 ] 

Часовой пояс: UTC + 3 часа


Кто сейчас на форуме

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  
cron
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Русская поддержка phpBB