Разница между 1.29
и текущей версией
МетодГрадиентногоСпуска.
@@ -7,13 +7,15 @@
* Можно ещё указать, что метод используется (будучу немного модифицированным) в обратном распространении ошибки.
* Это можно будет указать в будущей статье про НейронныеСети :)
* «...И жить торопиться, и чувствовать спешит...», П.А.Вяземский, кажется -- АтрашкевичАндрей
+ * Боря, в алгоритме я не увидел выхода: когда завершается алгоритм? Я тупой, наверное. -- АтрашкевичАндрей
+ * Действительно пока нету)
* Мне одному режет глаз эти прыжки вниз формулы $$ Y sup i $$?
* Может стоит сделать реквест на возможность авторизованным пользователям аплоадить картинки?
+ * «Функция потерь $$ J( THETA ) $$, считающая средний квадрат ошибки для всей выборки, выглядит следующим образом» : средний половинный, если быть точным, но это уже так, придурь из учебников по прикладной матстатистике. Понятно, что это делается для удобства, чтобы в производной меньше возьни было и что это монотонная операция, она экстремальное поведение функции не меняет, но всё же. -- АтрашкевичАндрей
- * Боря, в алгоритме я не увидел выхода: когда завершается алгоритм? Я тупой, наверное. -- АтрашкевичАндрей
----
-- Метод градиентного спуска (Gradient descent method)
+= Метод градиентного спуска (Gradient descent method)
Для заданного набора пар (Входное значение; Результат) или же
$$ ( X sup i; Y sup i ) $$
@@ -87,12 +89,12 @@
1 Вычисляем новые коэффициенты $$ THETA $$ по формуле '''[3]''';
1 Переходим на шаг №2.
--- Пример
+- Пример
НапишиМиня!
--- Список дополнительной литературы:
+- Список дополнительной литературы:
* http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D1%81%D0%BF%D1%83%D1%81%D0%BA%D0%B0
* something else