Artificial
Intelligence
Системы на основе искусственного интеллекта способны понимать, синтезировать, оценивать и действовать, но их суждения и действия не имеют эмоциональной окраски и основаны только на информации, полученной в результате обучения.

Что такое ИИ?

Это способность компьютерных систем выполнять творческие и интеллектуальные функции, которые традиционно считаются человеческими.

facts

AI
Power
Направление связано с обработкой изображений и видео — обнаружением объектов, обведением объектов по контуру, классификации изображений.
Компьютерное зрение

центральных направлений

10

Обработки текстов, классификация и поиск блоков в тексте, чат-боты, перевод, саммаризация, вопросо-ответные системы и другое.
Natural language processing
Довольно простое направление по классификации или оценке табличных данных — например, скоринг страховки, оценка стоимости квартир и другие похожие задачи.
Обработка табличных данных
Предсказание временных рядов и трендов широко применяется в трейдинге и финансовых бизнес задачах.
Предсказание временных рядов
В этом направлении нейронные сети классифицируют аудио или обнаруживают в аудио типовые паттерны.
Обработка аудио
Продвинутое направление, которое ожидает быстрого роста в 2025—2030 годах. Позволяет нейронным сетям оперативно анализировать свои действия и принимать решения.
Обучение с подкреплением
Speech to text — популярное направление на пересечении аудио и текстов, которое позволяет переводить речь в текст
Распознование речи
Самое быстро развивающееся направление в AI, позволяющее создавать изображения, музыку, стихи, сценарии, дизайн интерьеров и 3D модели.
Генеративные сети
Эволюционное моделирование, которое используется для автоматического подбора архитектуры нейронных сетей, оптимизации задач, логистики и управлении.
Генетические алгоритмы
Позволяет соединить нейронную сеть с конечным софтом, таким как мобильное приложение, сайт, 1С, CRM и др.
Интеграция в production
Тест Тьюринга
1950
Алан Тьюринг публикует знаменитую статью о возможности создания мыслящих систем и разрабатывает тест для проверки таких систем.
1955-1956
Термин ИИ
Первый семинар по искусственному интеллекту, который послужил началом создания этого понятия. Этот термин официально появился в 1956 году.
AI Winter
Период застоя, характеризующийся спадом интереса к разработкам в сфере Искуственного интеллекта и отсутствием финансирования.
1966-1997
1961-1966
Первые попытки
Появление индустриального робота Unimate. Разработка программы для обработки естественного языка MIT. И создание мобильного робота Shakey.
1997
Deep Blue
Компьютер Deep Blue от компании IBM стал первой системой, победившей действующего чемпиона мира по шахматам.
2002
Робот-пылесос
Создание первого робота-пылесоса от компании i-Robot, которого научили убирать помещение и избегать препятствия на своем пути.
1998-1999
Роботы-гуманоиды
Создание гуманоидных роботов: робот Kismet, способный моделировать эмоции и AIBO от Sony, обучающийся через взаимодействие с человеком.
2010
Watson IBM
Создание универсальной когнитивной системы, способной понимать вопросы, заданные на естественном языке, и находить ответы с помощью ИИ.
Siri и Alexa
Apple выпускает Siri - персонального ассистента, управляемого голосом. А в 2014 году Amazon создает умный домашний помощник Alexa.
2011-2014
ChatGPT-3.5
Релиз чат-бота с ИИ от OpenAI, который работает в диалоговом режиме и способен обрабатывать запросы на естественных языках.
30 ноября 2022
Google
Transformer
Выпуск двунаправленной модели обработки естественного языка для создания систем вопросов и ответов на основе машинного обучения.
2017
14 марта 2023
ChatGPT-4
Совместная разработка Microsoft и OpenAI. Включает мультимодальные модели и позволяет взаимодействовать через изображения, аудио и видео.
AI War
Крупнейшие игроки ИИ-рынка (Open AI, Microsoft, Google, Amazon, X.AI ) борются за первенство и инвестируют огромные средства в сферу ИИ-разработок.
настоящее время

История развития ИИ

50—
—24
2014
Пройден
тест Тьюринга
Компьютерный алгоритм, утверждая, что он 13-летний мальчик Евгений Густмар, прошел тест Тьюринга, убедив 33% судей в том, что он является человеком.
Современный этап развития языковых моделей начался с 2017 года исследователи из Google представили архитектуру Transformer. Главным новшеством этой архитектуры стал механизм внимания. До её изобретения нейросети перед работой с текстом сжимали его, поэтому часть смысла терялась. Transformer же работает по-другому: он анализирует все слова в тексте и выделяет среди них наиболее важные.

Эта модель моментально привлекла внимание других ученых, занимающихся обработкой естественного языка. Всего через год OpenAI разработала модель GPT — Generative Pretrained Transformer, то есть генеративный предобученный трансформер.
Еще в мае 2020 года OpenAI разрабатывает модель обработки естественного языка GPT-3, которая использовала предварительно обученные алгоритмы для генерации текста. Однако широкая общественность узнает о нем только в конце 2022 года..
Elem
ents
Big Data

Базовые элементы для работы ИИ

Большие данные играют важную роль, так как предоставляют необходимую базу для глубокого обучения нейронных сетей.
Data Mining
01
Анализ больших данных позволяет извлекать полезные знания, выявлять тенденции и настравивать алгоритмы, давая возможности находить полезные решения в различных сферах.
Machine Learning
02
ИНС
Искусственная нейронная сеть моделирует принципы нервных сетей мозга и применяется в приложениях для работы с данными.
Машинное обучение позволяет компьютеру самостоятельно решать задачи, которые не были включены в процессе обучения.
03
04

принцип работы

ИНС

Искусственная нейронная сеть
Упрощенную архитектуру моделей искусственных нейронных сетей, а также биологических нейросетей человека или животного можно рассмотреть на примере обучения простой модели перцептрона.
Перцептрон — это математическая или компьютерная модель, которая имитирует обработку информации в мозге.
Все элементы перцептрона взаимосвязаны, и каждая связь имеет вес — это число, которое определяет, как сигнал будет преобразован. Если в процессе обучения предсказание нейросети отличается от эталонной разметки, то веса автоматически корректируются, чтобы в следующий раз предсказание было более точным. При обучении веса нейронов автоматически изменяются и балансируются по специальным алгоритмам. Если обучение проходит успешно, то можно использовать полученную нейросеть с настроенными весами для классификации новых изображений, которых не было в обучающем датасете.

Архитектура и топология современных ИНС более сложна и обширна. Они имеют несколько слоев ассоциативных элементов, которые позволяют структурировать и ранжировать информацию. У современных моделей десятки и сотни миллиардов параметров, а обучаются они на терабайтах данных.
Процесс обучения нейросети начинается с передачи изображения объекта с S-элементов на А-элементы из обучающего датасета (набора данных), например, изображения собаки.

Затем полученный сигнал преобразуется и передается на следующий слой R-элементов, которые проводят предсказание типа объекта на изображении. Полученный результат сравнивается с эталонной разметкой.
S-A-R

Галлюцинации нейросетей

Достижения в области языковых моделей могут быть неустойчивыми, и именно это происходит с большими языковыми моделями. Ответы, которые они дают, неотличимы от ответов людей, а список тестов, которые может пройти GPT-4, впечатляет своими масштабами. Однако такие алгоритмы не лишены недостатков, которые иногда ставят под сомнение их практическое применение.

Одним из таких недостатков являются «галлюцинации». В машинном обучении этот термин используется для обозначения уверенных ответов, содержащих ложные факты, которых не было в обучающих данных. Проще говоря, языковая модель может изобретать факты для заданного запроса.
Точно так же, как учащиеся, которым не рекомендуется отвечать «я не знаю», будут пытаться придумать ответ на месте, так и нейронные сети. Они не просто выдумывают факты, а делают это очень правдоподобно.

Один из способов борьбы с «галлюцинациями» — научить модель отвечать «Я не знаю».
Решение проблемы «галлюцинаций» генеративной модели является постоянной проблемой как для разработчиков, так и для исследователей. Однако пользователи также могут сыграть жизненно важную роль в повышении точности модели в соответствии с реальностью. Задача управления этими галлюцинациями кажется сложной, но все должны работать вместе, чтобы эффективно справиться с ними.

Успешная работа с языковыми моделями в значительной степени зависит от наличия правильно написанного промта (запроса) в качестве эмпирического правила. Однозначные точки должны быть целью четких инструкций для этих моделей, чтобы они работали наилучшим образом. Полезным инструментом является предоставление примеров выполнения задачи с последующими запросами, похожими на первоначальную задачу.

Если вы хотите узнать, «галлюцинирует» ли модель, один из способов — попросить модель сгенерировать ответ несколько раз. Если модель предлагает разные ответы на одинаковые запросы, она, вероятно, испытывает этот нейронный феномен.
OpenAI сообщила о разработке нового метода обучения для искусственного интеллекта. Он помогает бороться с проблемой «галлюцинаций», изменяя систему мотивации, чтобы награда выдавалась за каждый правильный шаг рассуждений, а не только за финальный правильный ответ. Однако данные об исследовании пока не раскрыты, и проблема «галлюцинаций» остается актуальной. Это интересный подход для борьбы с недостатками текущих систем обучения искусственного интеллекта.
Made on
Tilda