Разница между 1.34 и текущей версией МетодГрадиентногоСпуска.
@@ -11,11 +11,11 @@
 			* Действительно пока нету)
 	* Мне одному режет глаз эти прыжки вниз формулы $$ Y sup i $$?
 	* Может стоит сделать реквест на возможность авторизованным пользователям аплоадить картинки?
-	* «Функция потерь $$ J( THETA ) $$, считающая средний квадрат ошибки для всей выборки, выглядит следующим образом» : средний половинный, если быть точным, но это уже так, придурь из учебников по прикладной матстатистике. Понятно, что это делается для удобства делается, чтобы в производной меньше возьни было и что это монотонная операция, она экстремальное поведение функции не меняет, но всё же. -- АтрашкевичАндрей
+	* «Функция потерь $$ J( THETA ) $$, считающая средний квадрат ошибки для всей выборки, выглядит следующим образом» : средний половинный, если быть точным, но это уже так, придурь из учебников по прикладной матстатистике. Понятно, что это делается для удобства, чтобы в производной меньше возьни было и что это монотонная операция, она экстремальное поведение функции не меняет, но всё же. -- АтрашкевичАндрей
 
 ----
 
-- Метод градиентного спуска (Gradient descent method)
+= Метод градиентного спуска (Gradient descent method)
 
 Для заданного набора пар (Входное значение; Результат) или же
 $$ ( X sup i; Y sup i ) $$
@@ -89,12 +89,12 @@
 	1 Вычисляем новые коэффициенты $$ THETA $$ по формуле '''[3]''';
 	1 Переходим на шаг №2.
 
--- Пример
+- Пример
 
 НапишиМиня!
 
 
--- Список дополнительной литературы:
+- Список дополнительной литературы:
 
 	* http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D1%81%D0%BF%D1%83%D1%81%D0%BA%D0%B0
 	* something else