Чикуров Виталий Васильевич
Проблемы при использовании Ии

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками Типография Новый формат: Издать свою книгу
 Ваша оценка:
  • Аннотация:
    У меня знакомый по просил рассказать об ИИ. Сейчас происходит БУМ ИИ, но очень мало публикаций о проблемах и угрозах ИИ


Проблемы и использование ИИ на основе нейронных сетей.

   ИИ на основе нейронных сетей является интеллектом с "черным ящиком". Это означает, что не возможно обосновать решение интеллекта. ИИ на основе нейронных сетей может быть распознающим (обучаемым) и генерирующим (само обучаемым).
   При обучении на каждый набор исходных данных - нужен правильный ответ от человека. После обучения для закрепления и повышения эффективности нужно постоянно фиксировать ошибки ИИ в процессе работы, иначе он будет считать ошибочные решения - правильными. Не достатком обучаемого ИИ - является малая автоматизация обучения.
   При само обучении каждый набор исходных данных - частично закрывается и ИИ должен предугадать закрытую часть. При обучении на одном наборе закрывать различные части, для разных нейронных подсетей (агентов), что позволяет обучать по разным алгоритмам одновременно. Плюс такого подхода - позволяет использовать огромные наборы исходных данных автоматически. В качестве не достатка - появляется проблема качества данных. Если в исходные данные попадут ошибочные или сфальсифицированные наборы, то резко возрастает вероятность ошибки при генерации ответа.
   При использовании ИИ в реальной работе возникает этическая и юридическая проблема: кто будет отвечать за ошибки ИИ, которые превели у ущербу, аварии, катастрофе? На настоящий момент ни в одной стране это не решено. Возможные варианты решения: 1) автор модели ИИ, 2) вледелец ИИ, 3) разработчик системы с использованием ИИ, 4) производитель устройства с использованием ИИ, 5) владелец устройства с использованием ИИ.
   Чтобы минимизировать ущерб от ошибочных решений ИИ, его нужно использовать в тех сферах и областях, в которых ИИ является помощником человека и человек принимает все решения и несет всю полноту ответственности. Также при использовании ИИ всегда должна быть возможность простого и (или) автоматического отключения ИИ. Пример где использование ИИ может принести максимальную пользу, при минимальном вреде и ущербе:
   1. Перевод технических текстов. При ошибках перевода - всегда есть исходный текст и словарь, перевод можно провести вручную.
   2. Модификация видео, аудио и графической информации для создания художественных произведений. При ошибках можно модифицировать исходные данные, провести дообучение. Это открыло возможность фальсификаций этой информации.
   3. Системы контекстного опроса. При ошибках - всегда есть возможность провести опрос вручную.
   4. На транспорте - частичный автопилот. Автопилот должен контролировать и управлять только теми подсистемами, которые влияют на безопасность минимально, при этом возможность отключить его должна очень простой. Сейчас есть несколько случаев, когда автопилот был причиной авиакатастроф. Во всех случаях отключение автопилота было не тривиальным, в результате пилоты не смогли его отключить. Полный автопилот - расслабляет человека управляющего транспортным средством, в результате при возникновении внештатной ситуации - человек, не успевает вникнуть в ситуацию и принять относительно правильное решение.
   5. Бизнес анализ - анализ больших данный, предсказания. Для минимизации ошибок - нужно применять несколько методов, как основанных на ИИ, так и на других методах. В результате ошибка в одном методе - нивелируется результатами других методов. Поэтому решения должен принимать только человек.
   6. Распознавание устной речи. Для исключения ошибки - должна быть возможность подключить человека и (или) другого метода ввода информации.
   7. В медицине. Диагностика заболеваний (особенно редких), при этом ИИ должен ставить только предварительный диагноз, в идеале несколько диагнозов. Лечащий врач с помощью дополнительных анализов и обследований должен или подтвердить, или опровергнуть диагноз.
   Угрозы при использовании ИИ.
   1. Деградации специалистов, при использовании ИИ. Человеческий мозг идет по пути наименьших затрат энергии. В результате специалист начинает излишне полагаться на ИИ, и при ошибке или отказе ИИ, он не справляется. Пример катастрофа SSJ-100, при попадании молнии, в результате выход из строя автопилота и ЭДСУ самолета. Пилот не смог посадить самолет без козления. Опытный пилот на симуляторе не смог повторить эту ошибку.
   2. Использование ИИ в обучении. В результате ученик/студент не приобретает необходимых навыков и знаний.
   3. Мошенничество с использованием ИИ. С помощью ИИ создаются deepfake, люди ведутся и теряют деньги (жилье и т. п.)

 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"