Генеалогическое древо на языке ProLog.
Этап 1. Неинформированный поиск. На этом этапе известна только топология связей между городами. Выполнить:
- поиск в ширину;
- поиск глубину;
- поиск с ограничением глубины;
- поиск с итеративным углублением;
- двунаправленный поиск. Отобразить движение по дереву на его графе с указанием сложности каждого вида поиска. Сделать выводы.
Этап 2. Информированный поиск. Воспользовавшись информацией о протяженности связей от текущего узла, выполнить:
- жадный поиск по первому наилучшему соответствию;
- затем, использую информацию о расстоянии до цели по прямой от каждого узла, выполнить поиск методом минимизации суммарной оценки А*.
Лабораторная работа №3 : Создание информационной системы на базе семантической сети» (сделана в Protégé)
Выбрать предметную область.
- Выбрать способ представления знаний в семантической сети – реляционный граф или граф с центром в глаголе, а также язык представления знаний, русский или иной. Возможно многоязычное представление знаний.
- Записать факты, составляющие предметную область в нотации программы “Semantic”. Рекомендуемый объем базы знаний – не менее 50 фактов.
- Снабдить базу знаний онтологиями, в т.ч. правилами (не менее 20), позволяющими извлекать новые факты, а также словарями для поддержки диалога на упрощенном естественном языке.
- Провести тестирование базы знаний, т.е. убедиться в том, что все правила корректно создают новые факты.
Purpose of work: study of the hyperparameters of the neural network, understanding impact of different hyperparameters on accuracy.
There are 2 parts of work in files named Lab1-Part1 and Lab1-Part2 respectively. Both parts represent work with collections of training and test data. Part 1 represent recognition of basic math functions with illustrations of neural net vision of the functions for training. Part 2 represent recognition of simple images for making following work. Data usage represented at https://keras.io/datasets/ and depends on variant.
There are represented such hyperparameters as
- Layer count
- Neurons count per layer (actually it’s not hyperparameter but structure parameter)
- Learn rate
- Regularization L1 and L2
- Output layer activation type
- Layer activation type
- Loss function type
- Epoch count
- By changing these hyperparameters try to reach max accuracy value(at least 0.95) for Part2 model with fixed epoch count 20
- Change 1st hyperparameter’s value from min to max with minimal step depends on your variant
- Show impact on result using graphs
- Describe impact of each hyperparameter on accuracy.
- Set hyperparameter value back to one which produced max accuracy
- Repeat 2-5 steps for second hyperparameter
Цель: решить задачу многоклассовой классификации, используя в качестве тренировочного набора данных - набор данных MNIST, содержащий образы рукописных цифр.
- Используйте метод главных компонент для набора данных MNIST (train dataset объема 60000). Определите, какое минимальное количество главных компонент необходимо использовать, чтобы доля объясненной дисперсии превышала 0.80+номер_в_списке%10. Построить график зависимости доли объясненной дисперсии от количества используемых ГК
- Введите количество верно классифицированных объектов класса номер_в_списке%9 для тестовых данных
- Введите вероятность отнесения 5 любых изображений из тестового набора к назначенному классу
- Определите Accuracy, Precision, Recall or F1 для обученной модели
- Сделайте вывод про обученную модель