Разница между 1.26
и текущей версией
МетодГрадиентногоСпуска.
@@ -5,11 +5,17 @@
* Примеры и причины плохой сходимости методы (структура функции потерь, плохой в смысле сходимости выбор шага).
* Вообще сама идея сходимости метода. Туда же неравенство Канторовича (за корректность не ручаюсь).
* Можно ещё указать, что метод используется (будучу немного модифицированным) в обратном распространении ошибки.
+ * Это можно будет указать в будущей статье про НейронныеСети :)
+ * «...И жить торопиться, и чувствовать спешит...», П.А.Вяземский, кажется -- АтрашкевичАндрей
+ * Боря, в алгоритме я не увидел выхода: когда завершается алгоритм? Я тупой, наверное. -- АтрашкевичАндрей
+ * Действительно пока нету)
* Мне одному режет глаз эти прыжки вниз формулы $$ Y sup i $$?
* Может стоит сделать реквест на возможность авторизованным пользователям аплоадить картинки?
+ * «Функция потерь $$ J( THETA ) $$, считающая средний квадрат ошибки для всей выборки, выглядит следующим образом» : средний половинный, если быть точным, но это уже так, придурь из учебников по прикладной матстатистике. Понятно, что это делается для удобства, чтобы в производной меньше возьни было и что это монотонная операция, она экстремальное поведение функции не меняет, но всё же. -- АтрашкевичАндрей
+
----
-- Метод градиентного спуска (Gradient descent method)
+= Метод градиентного спуска (Gradient descent method)
Для заданного набора пар (Входное значение; Результат) или же
$$ ( X sup i; Y sup i ) $$
@@ -83,12 +89,12 @@
1 Вычисляем новые коэффициенты $$ THETA $$ по формуле '''[3]''';
1 Переходим на шаг №2.
--- Пример
+- Пример
НапишиМиня!
--- Список дополнительной литературы:
+- Список дополнительной литературы:
* http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D1%81%D0%BF%D1%83%D1%81%D0%BA%D0%B0
* something else