BelNET logo

Электронный портал ядерных знаний Республики Беларусь

Belarusian Nuclear Education and Training Portal - BelNET

eng

rus

Материал портала ядерных знаний BelNET
статья/документ по запросу ресурса "5574"
2024-10-12
Нобелевская премия по физике 2024. Основы искусственных нейронных сетей и машинного обучения
Барткевич А.Р.

В завершении Нобелевской недели хотелось бы еще раз вернуться к премии по физике, попытаться осмыслить и понять решение Нобелевского комитета, которое наверняка у некоторых (если не у многих) физиков вызвало недоумение и даже возмущение. Очевидно, дискуссии о премии будут продолжаться еще очень долго. И это скорее вопрос не "натягивания" вычислительной математики на физику, а "подсветка прожектором" существующих проблем или даже кризиса физики как таковой. В последнем мы солидарны с одним из авторитетных популяризаторов науки, физиком-теоретиком Сабиной Хоссенфельдер. Не умаляя актуальности и ценности нейросетей в науке и современном мире, она отметила следующий важный аспект: премия этого года говорит нам о том, что "в реальной физике не было темы, даже отдаленно сравнимой по значимости".

Как мы уже писали ранее, Нобелевский комитет сопровождает свои объявления двумя подробными текстами с обоснованием сделанного выбора. Варианты обоснований для широкого круга интересующихся, изложенные в официальном пресс-релизе комитета и статье "Popular science background: They used physics to find patterns in information", в том или ином варианте разошлись по главным сми. Среди многочисленных заметок в русскоязычной прессе можно отметить довольно сносный перевод почти полных текстов указанных источников в статье Физика в нейросетях: объявлены лауреаты Нобелевской премии 2024 года на сайте naukatv.ru.

Поскольку упрощенное описание сложных вещей вкупе с погрешностями перевода для искушенного читателя, как правило, еще больше усложняет понимание сути исследований, попытку разобраться в новаторских методах и концепциях Хопфилда и Хинтона, сыгравших важную роль в формировании области искусственных нейросетей, сделаем на основании комментариев специалистов машинного обучения ведущих научных центров России.

Итак, Нобелевская премия по физике 2024 года присуждена Джону Хопфилду (Принстонский университет) и Джеффри Хинтону (Университет Торонто) «за основополагающие открытия и изобретения, которые позволяют осуществлять машинное обучение с использованием искусственных нейронных сетей». Согласно пресс-релизу, Хопфилд создал ассоциативную нейронную сеть, которая может хранить и восстанавливать изображения и другие типы шаблонов в данных. Хинтон изобрел метод, позволяющий автономно находить свойства в данных и выполнять такие задачи, как идентификация определенных элементов на изображениях.

Кратко и емко основы нейронных сетей Хопфилда и Хинтона сформулированы со слов специалиста по нейросетям из ФИЦ «Информатика и управление» РАН Дмитрия Николаева в статье новостного издания rtvi.com. «Нейронная сеть Хопфилда — полносвязная нейронная сеть с симметричной матрицей связей. В процессе работы динамика таких сетей сходится (конвергирует) к положению равновесия. Эти положения равновесия являются локальными минимумами функционала, называемого энергией сети. Хинтон использовал нейронную сеть Хопфилда как основу для создания новой нейронной сети, в которой применил новый метод — Машину Больцмана, способную обучаться, чтобы распознавать определенные элементы в заданном типе данных. Хинтон применил методы статистической физики, и его нейронная сеть оказалась способной классифицировать изображения или создавать их новые типы».

Далее читайте в Подробнее.

Загрузить:
nobelprize.org-uploads-2024-10-popular-physicsprize2024.jpg98775image/jpeg2024-10-12 09:04:35

Как поясняет Роман Душкин, генеральный директор IT-компании «А-Я эксперт», старший преподаватель кафедры 22 «Кибернетика» НИЯУ МИФИ, руководитель образовательной программы бакалавриата «Искусственный интеллект и моделирование когнитивных процессов при проектировании и разработке информационных систем», «Джон Хопфилд в свое время предложил определенную архитектуру полносвязанных нейросетей, в которой каждый нейрон связан с каждым другим нейроном. И сегодня эта архитектура носит его имя «сеть Хопфилда». Эта сеть, во-первых, предназначена для решения очень конкретных и определенных задач в области оптимизации — это метод оптимизации. Фактически она фильтрует сигнал с шумом. Ее можно обучить на восстановление некоторых эталонных образцов. Она запомнит эталонные образцы, и потом во входном сигнале будет эти эталонные образцы отыскивать. Даже если они будут зашумлены, она будет их восстанавливать. То есть, это восстанавливающий фильтр».

«Хинтон был одним из тех, кто изобрел метод обратного распространения ошибки (его несколько раз переизобретали, в том числе наши соотечественники). Собственно, работы Джеффри Хинтона лежат в основе современного глубокого обучения. Он предложил формулы восстановления связей, восстановления весов на связях между нейронами: то есть нейросеть как бы работает над ошибками, когда обучается», ― продолжает Душкин.

«Ко всему прочему, надо, конечно, отметить, что работы в области глубокого обучения, базируются на фундаментальном достижении наших советских ученых, которые в 1957 году доказали теорему, которая носит их имя, «теорема Колмогорова-Арнольда»: Андрея Николаевича Колмогорова и Владимира Игоревича Арнольда. Теорема фактически обосновывает то, как осуществляется машинное обучение — о том, что сложная многомерная функция может быть представлена как композиция простых одномерных функций. Это очень фундаментальный результат, который действительно лежит в основе всего глубокого обучения.

Насколько современные нейросети похожи на человеческий мозг? Если этот вопрос касается того, насколько похоже работают механизмы, то искусственные нейронные сети очень далеки от оригинала, от естественных нейронных сетей. Хотя и то, и другое осуществляет вычисления. Модель искусственного нейрона не похожа на то, как работает, живой нейрон у нас в голове. Хотя уже есть модели ИИ, которые стремятся повторить передачу сигнала, которая происходит в мозге. А вот если говорить про когнитивные функции: то, как мы воспринимаем, распознаем образы, мыслим, мечтаем, проявляем интуицию, то есть функциональность — искусственные нейронные сети очень похожи на людей. Сегодня они делают практически все, что делаем мы, люди.

Да, нобелевские лауреаты делали свои открытия в 80-х, а бум нейросетей начался лишь недавно. Когда пионеры искусственного интеллекта предложили модели и архитектуру первых нейросетей, а это было более 70 лет назад, просто не хватало вычислительных мощностей для обсчета всего этого: с вычислительной точки зрения сами методы весьма энергоемки. Например, тот же метод обратного распространения ошибки хоть и применяет линейные функции перехода, довольно простые, но их надо просчитать очень много. В современных глубоких нейросетях тысячи слоев, миллиарды и даже триллионы параметров. Первый же нейрокомпьютер «Марк-1», который создал Фрэнк Розенблатт в 1958 году, содержал нейроны в виде железных коробочек, связи между ними были проводами. Специальные девушки операционистки при обучении корректировали ошибки в нейросети путем переключения перемычек проводов между этими железными нейронами».

В комментарии порталу «Научная Россия» профессор РАН, заведующий лабораторией №80 «Киберфизических систем» ИПУ РАН Роман Мещеряков отмечает, «что за формулировкой премии «за фундаментальные открытия и изобретения, которые позволяют осуществлять машинное обучение с использованием искусственных нейронных сетей» скрывается создание основы, которая позволила развивать искусственные нейронные сети и машинное обучение».

«Сеть Хопфилда ― это азы изучения искусственных нейронных сетей, как таблица сложения в математике. С человеком, который не знаком с его работами, нет смысла говорить ни о нейросетях, ни о машинном обучении», ― считает Мещеряков.

Далее он поясняет как реализуется машинное обучение: «... есть несколько входов, источников информации, через которые машина получает образцы. Затем она их запоминает, используя вычислительные узлы, и анализирует, какая часть изображения более важная, а какая менее, добиваясь определенного результата. Это основа того, что сегодня называют искусственным интеллектом и машинным обучением, а принцип был заложен именно Джоном Хопфилдом».

«Джефри Хинтон использовал базовые физические процессы для создания метода, с помощью которого возможно распознавать и классифицировать изображения – он является одним исследователей, которые предложили для машинного обучения метод обратного распространения ошибки. Без результатов, которые получили Джон Хопфилд и Джефри Хинтон, скорее всего, сегодня не было бы нейросетей в современном виде», ― заключает Роман Мещеряков.

В заключение приведем выдержку из статьи Известий "ИИтого: Нобелевку по физике присудили за создание машинного обучения и нейросетей".

«Джеффри Хинтона многие считают отцом искусственного интеллекта. Свои подходы он обозначил еще в 80-х годах прошлого столетия, но только в 2012 году с началом новой технической революции в секторе информационных технологий и ростом вычислительных мощностей его метод стал завоевывать общее признание и стал классическим, отметил заместитель заведующего кафедрой инженерной кибернетики НИТУ МИСИС Константин Бакулев.

Причем, подчеркнул эксперт, нужно иметь в виду, что впервые действующий алгоритм для перцептронов (первых прообразов нейронных сетей), которые позволяли предсказывать процессы на основе предшествующих данных, был заявлен советскими учеными в 1965 году.

— Современные нейросети решают самые разные задачи, но работают уже на другом принципе обучения — так называемом обратном распространении ошибки. Любопытно, что его сформулировал профессор МФТИ Александр Галушкин в 1974 году. Но реально этот принцип стал фундаментом современного ИИ благодаря Хинтону, — также отметил вклад отечественных ученых главный аналитик Центра искусственного интеллекта Московского физико-технического института Игорь Пивоваров.

И уже сегодня, благодаря вкладу этого ученого, стали возможными всем известные сегодня многослойные сети глубокого обучения, отметил эксперт.

— В современных решениях эти архитектуры уже не используются, но они были пионерами в стремительно развивающейся области ИИ и заложили принципы работы алгоритмов машинного обучения, что и позволило определить их значимость, — сказал доцент кафедры информационных технологий и систем управления УрФУ Василий Борисов.

Также директор Института прикладных компьютерных наук ИТМО Антон Кузнецов отметил, что с 1980-х годов, когда были предложены эти идеи, нейронные сети сильно развились и современные модели состоят уже из триллиона нейронов, но обе технологии являются краеугольными камнями. Все системы искусственного интеллекта — от чата GPT до генеративных моделей — используют идеи, заложенные нобелевскими лауреатами.»

Вход, регистрация