Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Иску́сственный интелле́кт наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. ИИ связан со сходной задачей использования компью-теров для понимания человеческого интеллекта, но не обязательно ограничивается биологически правдоподобными методами. «Интеллект способ-ность системы создавать в ходе самообучения про-граммы (в первую очередь эвристические) для решения задач определённого класса сложности и решать эти задачи». Можно выделить два основных подхода к разработке ИИ: 1)нисходящий, семиотический создание экспертных систем, баз знаний и систем логического вывода, имитирующих высокоуровневые психические процессы: мышление, рассуждение, речь, эмоции, творчество и т. д.; 2)восходящий, биологический изучение нейронных сетей и эволюционных вычислений, моделирующих интеллектуальное поведение на основе биологических элементов, а также создание соответствующих вычислительных систем, таких как нейрокомпьютер или биокомпьютер. Подходы: интуитивный (тест Тьюринга), символьный подход (ЛИСП первый язык символьных вычислений), логический (Пролог), агентно-ориентированный (агент реагирует со средой), гибридный (комбинация нейронных и символьных моделей) |
Модели и методы исследований: 1)Символьное моделирование мыслительных процессов. В это направление входят: док-во теорем, принятие реш-й и теория игр, планирование и диспетчеризация, прогнозирование. 2) Работа с естественными языками (машинный перевод, поиск инфы). 3) Представление и использование знаний (проблема получения знаний из данных, ЭС). 4) Машинное обучение. Применение •Deep Blue победил чемпиона мира по шахматам. •Watson перспективная разработка IBM, способная воспринимать человеческую речь и производить вероятностный поиск, с применением большого количества алгоритмов. Для демонстрации работы Watson принял участие в американской игре «Jeopardy!», аналога «Своей игры» в России, где системе удалось выиграть в обеих играх. •MYCIN одна из ранних экспертных систем, которая могла диагностировать небольшой набор заболе-ваний, причем часто так же точно, как и доктора. •Распознавание речи. ViaVoice. •Роботы в ежегодном турнире RoboCup-футбол. Банки применяют системы искусственного интеллекта (СИИ) в страховой деятельности (актуарная математика), при игре на бирже и управлении собственностью. Методы распознавания образов широко используют в спам-фильтрах, в системах ПВО. |
Задача КА разбить множество объектов на известное или неизвестное число кластеров (групп) так, чтобы каждый объект принадлежал только одному кластеру. Цель КА объединить сходные по многим параметрам объекты в одном кластере и разнести различающиеся объекты в разные кластеры. Меры сходства и различия: манхэттенское расстояние и расстояние Чебышева. Методы КА: иерархические - дивизимные и агломера-тивные (правила объединения кластеров: 1)Метод «ближайшего соседа»: расстояние между кластерами определяется как расстояние между наиболее близкими объектами; 2)Попарное среднее: расстояние между кластерами равно среднему расстоянию между всеми парами объектов; 3)Центроидный метод: расстояние между кластерами равно расстоянию между их центрами тяжести; 4)Взвешенный центроидный метод: идентичен предыдущему, но при вычислениях учитываются ещё «веса» (числа объектов в кластерах). Не иерархические Вначале устанавливается некоторое число кластеров и начальное разбиение объектов в них. Затем объекты переносятся из кластера в кластер до тех пор, пока критерий качества разбиения не перестанет улучшаться. |
У метода Варда критерием качества разбиения является минимум суммы квадратов евклидовых расстояний объектов от среднего значения (центра тяжести) кластера. В методе k-средних критерием качества является максимальное различие средних значений у кластеров Функции MATLAB для КА: Y=pdist(X, Euclid) рассчитывает евклидовы расстояния между строчками матрицы X; linkage(Y, Ward) объединяет объекты в кластеры методом Варда; squareform(Y) выдает квадратную матрицу евклидовых расстояний между строчками матрицы X; Z=linkage(Y) выдает таблицу последовательного объединения объектов в кластеры агломеративным методом; Mahal рассчитывает расстояние Махаланобиса; cityblock рассчитывает манхэттенское расстояние; dendrogram(Z) строит графическое изображение дерева объединения объектов в кластеры; cophet(Z, Y) выдаёт коэффициент качества разбиения объектов на кластеры (аналог коэффициента корреляции). Область применения КА: сегментирование покупателей; сегментирование избирателей; разделение предприятий и других объектов; проверка влияния управленческих решений; диагностика в медицине, психиатрии. |
Цели факторного анализа: 1)Выделить латентные (скрытые и недоступные для измерения) характе-ристики изучаемых явлений или процессов. 2)Сжатие информации, уменьшение числа анализируемых переменных. Идея ФункцА: Латентные факторы проявляются в согласованном изменении некоторых (взаимнокоррелируемых) переменных. Методы ФА: 1) Метод главных компонент - ищутся линейные комбинации исходных переменных, удовлетворяющие условиям ортогональности и монотонного уменьшения дисперсии. Используются собственные числа дисперсионной матрицы. Число главных компонент равно числу исходных переменных. 2) Метод главных факторов: X=S*F+E, X-матрица исходных данных, S-матрица «весов»(факторных нагрузок), F- матрица новых «латентных» переменных, E-матрица остатков В методе главных факторов число факторов меньше числа исходных переменных. Он позволяет лучше |
связать факторы с переменными, что важно для интерпретации факторов. Сколько оставить факторов? 1)Метод Кайзера: чтобы фактор определял дисперсию. 2)Метод каменистой осыпи. Вращение факторов: цель - сблизить пере-менные с факторами для удобства интерпретации. Варимакс-минимизирует количество переменных тесно связанных с фактором. Квартимакс мини-мизирует количество факторов, связанных с данной переменной. Эквимакс-комбинация варимакса и квартимакса. Функции Матлаб для ФА: pcacov(Xков) по ковариационной матрице данных выдаёт матрицу главных компонент, собственные числа матрицы и % дисперсии. Princom(X) по исходной матрице данных выдаст нагрузки главных компонент. Factoran(X,m) по исходной матрице данных выдаст матрицу факто-ров, матрицу факторных нагрузок и матрицу остатков. |