Реалізувати нейронну мережу прямого поширення з одним нейроном в вхідному шарі, N нейронами у прихованому шарі з сигмоидальной функцією активації (logsig) та одним нейроном у вихідному шарі з лінійною функцією активації. Навчити її апроксимації заданої функції за алгоритмом зворотного поширення. Виконати порівняння якості апроксимації для поліноміальної, синусоїдальної та humps функцій. Для однієї з функцій виконати порівняння якості апроксимації для різних N (варіант – номер в списку групи).
4. Алгоритм градієнтного спуску з оновленням по Полак-Рібьер
Розв’язати завдання згідно з Вашим варіантом в середовищі Matlab із застосуванням пакету Neural Network Toolbox (варіант – номер в списку групи).
1. Застосувати мережу квантування векторів (Learning Vector Quantization, newlvq) для розпізнавання зображень цифр від 1 до 3 (16 градацій сірого, 16x16, див. Рис. 3). Застосуйте ймовірностну нейронну мережу для розв’язання тієї ж проблеми (Probabilistic neural networks, newpНС). Порівняйте якість роботи обох мереж на зашумлених зразках (для накладення шуму додайте до кожного пікселя випадкове число).
Рис. 3. Зображення цифр для розпізнавання.
1. мета роботи
2. завдання
3. для завдання 1: опис алгоритму.
4. для завдання 1: порівняння роботи алгоритму для 3-х функцій різного типу.
5. для завдання 2: опис способу вирішення поставленого завдання.
6. для завдання 2: опис використаних команд та функцій.
7. для завдання 2: графіки, що ілюструють якість апроксимації для різних N.
8. висновки по роботі.
Гарантия на работу | 1 год |
Средний балл | 4.96 |
Стоимость | Назначаете сами |
Эксперт | Выбираете сами |
Уникальность работы | от 70% |