Это старая версия (1.103) ЛипинБорис.

Содержание

Пару слов о себе:

  • Быдлокодер (линк на гитхаб аккаунт https://github.com/dzruyk);
  • Адепт лаборатории с октября 2010;
  • В дипломе на фото трояк за дисциплину «Язык программирования Си» подтверждающий мои глубокие знания в этой сфере;
  • Закончил СыктГУ в 2013 году, выпустился со специальности КЗОИ;
  • Линк на практическую часть ВКР https://github.com/dzruyk/crypti (сам текст ВКР был посеян).
    • Мне кажется, что она вовсе не была посеяна. Тебе просто стыдно показывать её, т. к. она, скорее всего, была безобразно свёрстана в OpenOffice? :-D
    • Она была безобразно свёрстана в MS Word, однако я её всё же посеял. Зачем стыдиться исторических фактов?

На занятиях лаборатории Боря был исключительно вредный и дотошный, иногда даже хотелось бросить в него фломастером. -- СиткаревГригорий
Some tests
  1. Paradis, E. R for beginners / E. Paradis. — 2004. — http://cran.r-projec....
  2. Matloff, N. The Art of R Programming / Norman Matloff. — 2009.
  3. Lipin, B. R. The Beginner's Guide to Art of Bad Code and Ugly Style / B. R. Lipin, G. A. Sitkarev // AM&P Lab reports. — Syktyvkar : AM&P Lab Publishing, 2014. — pp. 20—28.

Ссылки на электронные ресурсы (пока просто POC):

  1. The Open Group Base Specifications Issue 7 [Электронный ресурс] [Электронный ресурс] : sed - stream editor / The IEEE and The Open Group. — IEEE Std 1003.1, 2013 Edition, 2013. — Режим доступа: http:....

Помойка с полезными ссылками:

  1. http://archive.amplab.ru/history/lab-2015-01-24.log 2015-01-24T11:28:15 groff cyrillic font

Разговор о Unix

  1. http://archive.amplab.ru/history/lab-2015-03-06.log 2015-03-06T23:09:09 Unix and Plan9

Однострочники

  1. http://archive.amplab.ru/history/lab-2015-01-16.log 2015-01-16T07:10:26 progress bar
  2. http://archive.amplab.ru/history/lab-2015-02-03.log 2015-02-03T14:36:29 merge files
  3. http://archive.amplab.ru/history/lab-2015-02-06.log 2015-02-06T21:23:49 merge files (paste)
  4. http://archive.amplab.ru/history/lab-2015-02-23.log 2015-02-23T19:41:07 ifconfig output sed

Книжки по типографии, которые стоит загрепать

  1. Гиленсон, П. Г. Справочник технического и художественного редакторов / П. Г. Гиленсон. — Москва : Книга, 1988.
  2. Шульмейстер, М. В. Ручной набор / М. В. Шульмейстер. — Москва : Книга, 1966.

spam

Распределение Пуассона

P sub m
= a sub m over { m! } e sup {-a} (m = 0, 1, ...)

Нормальный закон

f(x)
=
1 over {sigma sqrt {2 pi}} e sup {- {(x - m)} sup 2 over {2 sigma sup 2}}

Где M = m; D = sigma sup 2, M - Математическое ожидание; D - Дисперсия


  • Боря, а почему  Pi , а не  pi ? --АтрашкевичАндрей
  • Нинаю :-( --ЛипинБорис
  • может, у меня острый проникающий LaTeX головного мозга, но я бы написал примерно так: если  x ~ \\(ti ~ N ( mu , { sigma sup 2 } ) , то функция плотности распределения вероятности:
 f ( x ) = size -2 { 1 } over size -2 { sigma sqrt { 2 pi } } e sup { ~ size -1 { - } ~ size +1 { ( { x ~ - ~ mu } ) sup 2} over size +1 { 2 { sigma sup 2 } } } --АтрашкевичАндрей
  • и предыдущая формула у меня — формула-урод, и чем больше правлю, тем больше урод --АтрашкевичАндрей

Метод градиентного спуска (Gradient descent method)

Метод градиентного спуска используется для подбора оптимальных коэффициентов для произвольной функции  h(x) при наборе известных пар  (x, y) (Входной параметр, результат). Например в результате эксперимента мы получили следующие значения

 X	Y
 1	3
 2	6
 3	11

Мы знаем что зависимость X от Y имеет квадратичный характер (  y ~  x sup 2 ) и хотим узнать функцию  h(x) , которая для каждого i -того эксперимента в соответствие x sup i получит значение максимально близкое к y sup i. Иными словами мы хотим получить коэффициент  THETA sub 1 для уравнения y = THETA sub 1 x sup 2

Метод используется для решения тех же задач что и МетодНаименьшихКвадратов.


  • К: с той существенной разницей, что МНК без дополнительных действий (линеаризация или взятие весов, например) пригоден только для аппроксимации данных линейными полиномами, а МГС используется для аппроксимации данных и полиномами со старшей степенью  n >= 2 --АтрашкевичАндрей

Под "оптимальностью" понимается то, что значение функции при данных  x sup (i) будет минимально отличаться от y sup (i). Для этого необходимо ввести функцию потерь J, её значения зависят только от параметров  THETA , поэтому будем обозначать функцию потерь как J( THETA ) J( THETA )
=
1 over {2m} sum {(h sub theta (x sup i) - y sup (i) ) sup 2}

В качестве функции потерь мы выбрали квадрат средней ошибки. THETA sub i
=
THETA sub i - alpha {partial over {partial THETA sub i}} J( THETA )

Где:

  •  J( THETA ) - функция потерь
  •  alpha - некий коэффициент называемый "скоростью обучения"

Откуда ясно что производная от J( THETA ) вычисляется следующим образом partial {J( THETA )} over { partial THETA }
=
1 over m sum {(h sub theta (x sup i) - y sup (i) ) x sup (i)}

Два вида нотаций (соглашений о записи) частного дифференцирования функций многих переменных: partial f (x bar) over partial x sub i




КатегорияЛюди