Как работает искусственный интеллект

Статус
В этой теме нельзя размещать новые ответы.

Новости

Пользователь
29 Май 2018
5.082
925
1.575


В последнее время мы все больше слышим об искусственном интеллекте. Он применяется практически везде: от сферы высоких технологий и сложных математических вычислений до медицины, автомобилестроения и даже при работе смартфонов. Технологии, лежащие в основе работы ИИ в современном представлении, мы используем каждый день и порой даже можем не задумываться об этом. Но что такое искусственный интеллект? Как он работает? И представляет ли опасность?


Что такое искусственный интеллект


Для начала давайте определимся с терминологией. Если вы представляете себе искусственный интеллект, как что-то, способное самостоятельно думать, принимать решения, и в целом проявлять признаки сознания, то спешим вас разочаровать. Практически все существующие на сегодняшний день системы даже и близко не «стоят» к такому определению ИИ. А те системы, что проявляют признаки подобной активности, на самом деле все-равно действуют в рамках заранее заданных алгоритмов.

Порой алгоритмы эти весьма и весьма продвинутые, но они остаются теми «рамками», в пределах которых работает ИИ. Никаких «вольностей» и уж тем более признаков сознания у машин нет. Это просто очень производительные программы. Но они «лучшие в своем деле». К тому же системы ИИ продолжают совершенствоваться. Да и устроены они совсем небанально. Даже если откинуть тот факт, что современный ИИ далек от совершенства, он имеет с нами очень много общего.

Как работает искусственный интеллект


В первую очередь ИИ может выполнять свои задачи (о которых чуть позже) и приобретать новые навыки благодаря глубокому машинному обучению. Этот термин мы тоже часто слышим и употребляем. Но что он означает? В отличие от «классических» методов, когда всю необходимую информацию загружают в систему заранее, алгоритмы машинного обучения заставляют систему развиваться самостоятельно, изучая доступную информацию. Которую, к тому же, машина в некоторых случаях тоже может искать самостоятельно.

Например, чтобы создать программу для обнаружения мошенничества, алгоритм машинного обучения работает со списком банковских транзакций и с их конечным результатом (законным или незаконным). Модель машинного обучения рассматривает примеры и разрабатывает статистическую зависимость между законными и мошенническими транзакциями. После этого, когда вы предоставляете алгоритму данные новой банковской транзакции, он классифицирует ее на основе шаблонов, которые он подчерпнул из примеров заранее.

Как правило, чем больше данных вы предоставляете, тем более точным становится алгоритм машинного обучения при выполнении своих задач. Машинное обучение особенно полезно при решении задач, где правила не определены заранее и не могут быть интерпретированы в двоичной системе. Возвращаясь к нашему примеру с банковскими операциями: по-факту на выходе у нас двоичная система исчисления: 0 — законная операция, 1 — незаконная. Но для того, чтобы прийти к такому выводу системе требуется проанализировать целую кучу параметров и если вносить их вручную, то на это уйдет не один год. Да и предсказать все варианты все-равно не выйдет. А система, работающая на основе глубокого машинного обучения, сумеет распознать что-то, даже если в точности такого случая ей раньше не встречалось.

Глубокое обучение и нейронные сети


В то время, как классические алгоритмы машинного обучения решают многие проблемы, в которых присутствует масса информации в виде баз данных, они плохо справляются с, так сказать, «визуальными и аудиальными» данными вроде изображений, видео, звуковых файлов и так далее.

Например, создание модели прогнозирования рака молочной железы с использованием классических подходов машинного обучения потребует усилий десятков экспертов в области медицины, программистов и математиков,- заявляет исследователь в сфере ИИ Джереми Говард. Ученые должны были бы сделать много более мелких алгоритмов для того, чтобы машинное обучение справлялось бы с потоком информации. Отдельная подсистема для изучения рентгеновских снимков, отдельная — для МРТ, другая — для интерпретации анализов крови, и так далее. Для каждого вида анализа нам нужна была бы своя система. Затем все они объединялись бы в одну большую систему… Это очень трудный и ресурсозатратный процесс.

Алгоритмы глубокого обучения решают ту же проблему, используя глубокие нейронные сети, тип архитектуры программного обеспечения, вдохновленный человеческим мозгом (хотя нейронные сети отличаются от биологических нейронов, принцип действия у них почти такой же). Компьютерные нейронные сети — это связи «электронных нейронов», которые способны обрабатывать и классифицировать информацию. Они располагаются как-бы «слоями» и каждый «слой» отвечает за что-то свое, в итоге формируя общую картину. Например, когда вы тренируете нейронную сеть на изображениях различных объектов, она находит способы извлечения объектов из этих изображений. Каждый слой нейронной сети обнаруживает определенные особенности: форму объектов, цвета, вид объектов и так далее.


Поверхностные слои нейронных сетей обнаруживают общие особенности. Более глубокие слои уже выявляют фактические объекты. На рисунке схема простой нейросети. Зелёным цветом обозначены входные нейроны (поступаюзая информация), голубым — скрытые нейроны (анализ данных), жёлтым — выходной нейрон (решение)

Нейронные сети — это искусственный человеческий мозг?


Несмотря на похожее строение машинной и человеческой нейросети, признаками нашей центральной нервной системы они не обладают. Компьютерные нейронные сети по-сути все те же вспомогательные программы. Просто вышло так, что самой высокоорганизованной системой для проведения вычислений оказался наш мозг. Вы ведь наверняка слышали выражение «наш мозг — это компьютер»? Ученые просто «повторили» некоторые аспекты его строения в «цифровом виде». Это позволило лишь ускорить вычисления, но не наделить машины сознанием.

Нейронные сети существуют с 1950-х годов (по крайней мере, в виде концепий). Но до недавнего времени они не получали особого развития, потому что их создание требовало огромных объемов данных и вычислительных мощностей. В последние несколько лет все это стало доступным, поэтому нейросети и вышли на передний план, получив свое развитие. Важно понимать, что для их полноценного появления не хватало технологий. Как их не хватает и сейчас для того, чтобы вывести технологию на новый уровень.



Для чего используется глубокое обучение и нейросети


Есть несколько областей, где эти две технологии помогли достичь заметного прогресса. Более того, некоторые из них мы ежедневно используем в нашей жизни и даже не задумываемся, что за ними стоит.

  • Компьютерное зрение — это способность программного обеспечения понимать содержание изображений и видео. Это одна из областей, где глубокое обучение сделало большой прогресс. Например, алгоритмы обработки изображений глубокого обучения могут обнаруживать различные типы рака, заболеваний легких, сердца и так далее. И делать это быстрее и эффективнее врачей. Но глубокое обучение также укоренилось и во многих приложениях, которые вы используете каждый день. Apple Face ID и Google Photos используют глубокое обучение для распознавания лица и улучшения качества снимков. Facebook использует глубокое обучение, чтобы автоматически отмечать людей на загружаемых фотографиях и так далее. Компьютерное зрение также помогает компаниям автоматически идентифицировать и блокировать сомнительный контент, такой как насилие и нагота. И, наконец, глубокое обучение играет очень важную роль в обеспечении возможности самостоятельного вождения автомобилей, чтобы они могли понимать, что их окружает.
  • Распознавание голоса и речи. Когда вы произносите команду для вашего Google Ассистента, алгоритмы глубокого обучения преобразуют ваш голос в текстовые команды. Несколько онлайн-приложений используют глубокое обучение для транскрибирования аудио- и видеофайлов. Даже когда вы «шазамите» песню, в дело вступают алгоритмы нейросетей и глубокого машинного обучения.
  • Поиск в интернете: даже если вы ищите что-то в поисковике, для того, чтобы ваш запрос был обработан более четко и результаты выдачи были максимально правильными, компании начали подключать алгоритмы нейросетей к своим поисковым машинам. Так, производительность поисковика Google выросла в несколько раз после того, как система перешла на глубокое машинное обучение и нейросети.


Пределы глубокого обучения и нейросетей


Несмотря на все свои преимущества, глубокое обучение и нейросети также имеют и некоторые недостатки.

  • Зависимость от данных: в целом, алгоритмы глубокого обучения требуют огромного количества обучающих данных для точного выполнения своих задач. К сожалению, для решения многих проблем недостаточно качественных данных обучения для создания рабочих моделей.
  • Непредсказуемость: нейронные сети развиваются каким-то странным путем. Иногда все идет как задумано. А иногда (даже если нейросеть хорошо справляется со своей задачей), даже создатели изо всех сил пытаются понять, как же алгоритмы работают. Отсутствие предсказуемости делает чрезвычайно трудным устранение и исправление ошибок в алгоритмах работы нейросетей.
  • Алгоритмическое смещение: алгоритмы глубокого обучения так же хороши, как и данные, на которых они обучаются. Проблема заключается в том, что обучающие данные часто содержат скрытые или явные ошибки или недоработки, и алгоритмы получают их «в наследство». Например, алгоритм распознавания лиц, обученный в основном на фотографиях белых людей, будет работать менее точно на людях с другим цветом кожи.
  • Отсутствие обобщения: алгоритмы глубокого обучения хороши для выполнения целенаправленных задач, но плохо обобщают свои знания. В отличие от людей, модель глубокого обучения, обученная играть в StarCraft, не сможет играть в другую подобную игру: скажем, в WarCraft. Кроме того, глубокое обучение плохо справляется с обработкой данных, которые отклоняются от его учебных примеров.
Будущее глубокого обучения, нейросетей и ИИ


Ясное дело, что работа над глубоким обучением и нейронными сетями еще далека от завершения. Различные усилия прилагаются для улучшения алгоритмов глубокого обучения. Глубокое обучение — это передовой метод в создании искусственного интеллекта. Он становится все более популярным в последние несколько лет, благодаря обилию данных и увеличению вычислительной мощности. Это основная технология, лежащая в основе многих приложений, которые мы используем каждый день.



Но родится ли когда-нибудь на базе этой технологии сознание? Настоящая искусственная жизнь? Кто-то из ученых считает, что в тот момент, когда количество связей между компонентами искусственных нейросетей приблизиться к тому же показателю, что имеется в человеческом мозге между нашими нейронами, что-то подобное может произойти. Однако это заявляение очень сомнительно. Для того, чтобы настоящий ИИ появился, нам нужно переосмыслить подход к созданию систем на основе ИИ. Все то, что есть сейчас — это лишь прикладные программы для строго ограниченного круга задач. Как бы нам не хотелось верить в то, что будущее уже наступило…

А как считаете вы? Создадут ли люди ИИ? Поделитесь мнением в нашем чате в Телеграм.

Читать дальше...
 
Статус
В этой теме нельзя размещать новые ответы.