Разница между 1.92 и текущей версией КаскадХаара.
@@ -1,9 +1,8 @@
-- Каскад Хаара
+= Каскад Хаара
 
 
--- Гильза
+- Гильза
 
-----
 	* Допустим, у нас есть один миллион изображений: полмиллиона изборажений мотоциклов и полмиллиона изображений не-мотоциклов (это называется ''обучающая выборка''). В реальности, кстати, такая чудная ситуация (доля мотоциклов равно доле не-мотоциклов) бывает чрезвычайно редко.
 	* Мы хотим научить компьютер отличать изображения мотоциклов от изображений не-мотоциклов. Для этого мы проводим обучение. Сначала мы «рассказываем» компьютеру, что является мотоциклом, а что не является. Это называется ''обучение с учителем'', если компьютер неким образом сам смог бы научиться распознавать мотоциклы от не-мотоциклов без внешней помощи, то это было бы ''обучение без учителя'': подробнее смотри статью: ...
 	* После обучения бы даём компьютеру миллионпервое изображение, а компьютер выдаёт 1 («ДА», «ИСТИНА», «это мотоцикл»), если это изображение мотоцикла, и -1 («НЕТ», «ЛОЖЬ», «это не-мотоцикл»), если это изображение не-мотоцикла. В реальной практике мы даём не одно изображение, а, допустим, сто тысяч (эти сто тысяч называются ''тестовой выборкой''). По тому, как компьютер научился разделять мотоциклы от не-мотоциклов, мы судим о качестве нашего обучения. Для этого чаще всего используются следующие показатели: 
@@ -196,7 +195,7 @@
 пикселей в прямоугольниках $$A$$, $$B$$, $$C$$ и $$D$$. Тогда сумма значений пикселей
 в прямоугольнике $$D$$ будет равна $$d - c - b + a$$.
 
--- ''''''Алгоритм AdaBoost''''''.
+- ''''''Алгоритм AdaBoost''''''.
 
 Для выбора признаков, лучше всего классифицирующих изображения используется
 алгоритм ''''''''AdaBoost'''''''' (adaptive boosting). Этот алгоритм построен на идее,
@@ -244,13 +243,13 @@
 классифицированные изображения начинают сильнее влиять на значение ошибки.
 Ниже приведен полный алгоритм:
 
---- Входные данные:
+-- Входные данные:
 	* $$h sub i$$ ‒ $$i$$-й слабый классификатор
 	* $$E sub i$$ ‒ $$i$$-й обучающий пример.
 	* $$y sub i$$ ‒ $$0$$, если $$i$$-й обучающий пример отрицательный, и $$1$$, если $$i$$-й обучающий пример положительный.
 	* $$n$$ ‒ количество обучающих примеров.
 
---- Переменные:
+-- Переменные:
 	* $$w sub i$$ ‒ вес, соответствующий $$i$$-му обучающему примеру.
 	* $$m$$ ‒ число отрицательных примеров.
 	* $$l$$ ‒ число положительных примеров.
@@ -259,7 +258,7 @@
 	* $$epsilon dot$$ ‒ минимальное значение ошибки слабого классификатора на текущей итерации.
 	* $$beta sub i$$ ‒ минимальное значение ошибки слабого классификатора на $$i$$-й итерации, представленное в другой форме (для оптимизации вычислений и экономии места).
 
---- Алгоритм:
+-- Алгоритм:
 	* Инициализировать веса обучающих примеров: 
 %EQ
 left {
@@ -302,6 +301,6 @@
 right ""
 %EN
 
--- Каскад классификаторов.
+- Каскад классификаторов.
 
 # КатегорияМашинноеОбучение