0+

Объяснимый ИИ (XAI)

XAI ( Объяснимый ИИ ) стремится объяснить, что было сделано, что делается и что будет сделано дальше, а также раскрыть, на какой информации основаны эти действия.  Это позволяет подтверждать существующие знания, оспаривать существующие знания и генерировать новые предположения.


h22mΔψ+Uψ=i×hdψdt


Алгоритмы XAI следуют трем принципам прозрачности, интерпретируемости и объяснимости. 

Модель прозрачна, «если процессы, которые извлекают параметры модели из обучающих данных и генерируют метки из тестовых данных, могут быть описаны и мотивированы разработчиком подхода». 

Интерпретируемость описывает возможность понимания модели машинного обучения и представления базовой основы для принятия решений таким образом, чтобы она была понятна человеку. 

Объяснимость - это концепция, которая признается важной, но консенсусное определение недоступно. Одной из возможностей является «совокупность признаков интерпретируемой области, которые способствовали, например, принятию решения (например, классификация или регрессия)». Если алгоритмы соответствуют этим принципам, они обеспечивают основу для обоснования решений, отслеживания их и, таким образом, проверки, улучшения алгоритмов и изучения новых фактов.

Многие исследователи утверждают, что, по крайней мере, для контролируемого машинного обучения, путь вперед — символическая регрессия, когда алгоритм ищет пространство математических выражений, чтобы найти модель, которая лучше всего соответствует данному набору данных.


Типы моделей ИИ

Линейная регрессия

Модель ИИ использует простую математическую функцию, которая сопоставляет входные данные с выходными данными с использованием линейной зависимости. Например, модель ИИ, которая предсказывает цены на жилье, может использовать линейную функцию, которая учитывает такие факторы, как размер, местоположение и многое другое.

Глубокие нейронные сети

Они также построены на взаимосвязанных компонентах, называемых искусственными нейронами, и нейронная сеть человеческого мозга вдохновляет их. Многие области используют модели DNN, например, те, которые имеют дело с распознаванием речи, распознаванием изображений и НЛП.

Логистическая регрессия

В логистической регрессии переменная X является двоичной (истина/ложь, настоящее/отсутствующее), а переменная Y является результатом процесса отображения.

Деревья решений ИИ

Эта методология ИИ не только проста для понимания, но и довольно эффективна. Информация, полученная в результате предыдущих решений, анализируется с помощью дерева решений. Часто эти деревья придерживаются элементарной структуры «если/то». Например, если вы упаковываете бутерброд на обед вместо того, чтобы покупать обед, вы можете сэкономить деньги.
Как вопросы регрессии, так и вопросы классификации поддаются деревьям решений. Более того, ранние виды предиктивной аналитики основывались на базовых деревьях решений.

Линейный дискриминантный анализ

Одно дерево решений может быть эффективной моделью ИИ, но чего может достичь лес из них? Несколько деревьев решений объединяются в один случайный лес. Каждое дерево в лесу решений возвращает свой собственный результат или решение, которое впоследствии усредняется. Окончательный прогноз или вывод более надежен из-за комбинированных результатов.

При работе с огромным набором данных модель ИИ случайного леса действительно сияет. 
С помощью этого подхода могут быть решены как вопросы регрессии, так и вопросы классификации. Использование случайных лесных моделей сыграло решающую роль в развитии современной прогнозной аналитики.


Наивный Байес

Наивный метод Байеса — это метод классификации, который не делает никаких предположений о связях между входами.

Машины опорных векторов

Чтобы более точно классифицировать данные, методы опорных векторов создают разбиение (гиперплоскость).

Векторное квантование обучения

Используя квантование вектора обучения, модель будет сходиться в виде точек данных в прототипы, так же, как это делает k-ближайший сосед при оценке расстояния между отдельными точками данных.

К-ближайшие соседи

Алгоритм k-ближайшего соседа используется, в основном, для решения задач классификации.
Он называется алгоритмом ленивого обучения или lazy learner, потому что он не строит модель до тех пор, пока к набору данных не будет выполнен запрос.

Случайный лес

Ансамблевая модель обучения, Random Forest, может применяться как к задачам регрессии, так и к задачам классификации. Он использует технику упаковки для объединения результатов многочисленных деревьев решений, прежде чем сделать окончательный прогноз.

Чтобы уменьшить сложность, он строит «лес» деревьев решений, которые были индивидуально обучены на отдельных подмножествах данных, прежде чем объединить результаты для более точных прогнозов.