Post AaT0SZXoiIrptb4iFU by make_sense@mastodon.ml
 (DIR) More posts by make_sense@mastodon.ml
 (DIR) Post #AaScKwcCehQWEQxMZc by horhik@mastodon.ml
       2023-10-05T12:59:54Z
       
       0 likes, 1 repeats
       
       Блин. А есть вообще объяснение - почему линейные модели работают?Почему результат скалярного произведения каких-то закодированных параметров и их, правильно подобранных, весов может иметь какой-то однозначный смысл?
       
 (DIR) Post #AaScrRU3QFBbEfdo7k by horhik@mastodon.ml
       2023-10-05T13:05:45Z
       
       0 likes, 1 repeats
       
       Хотя может и сам себе на этот вопрос ответил... Ведь в принципе, если у меня уже есть датасет с ответами, то расположив их в этом N+1 мерном пространстве, впринципе можно предложить такую гиперплоскость, уравнение которой аппроксимирует значимую часть этих ответов.Только вот объяснить бы себе как нам изначально понять, к какой задаче линейная модель может подойти а к какой нет. И можно ли какие-то модели свести к линейным. хммм
       
 (DIR) Post #AaT0SZXoiIrptb4iFU by make_sense@mastodon.ml
       2023-10-05T17:30:09Z
       
       0 likes, 0 repeats
       
       @horhik Какое то мега переусложнение :blobcatjoy: Там же просто веса решают все. Модель в процессе обучению увеличивает или уменьшает вес той или ной связи. По факту она просто все запоминает)
       
 (DIR) Post #AaT3NAPT2IFYMAHeGe by 3draven@mtdn.anyqn.com
       2023-10-05T18:02:47Z
       
       0 likes, 0 repeats
       
       @horhik нейронка это механизм аппроксимации и поиска неизвестной многомерной поверхности. В итоге можно найти именно такую поверхность, точка которой содержит ответ. Собственно и все. Там где аналитические модельки строят простенькие но точные поверхности, эта хрень строит неточную и сложную. Я себе это так представляю.
       
 (DIR) Post #AaTAlSKyjTlEaSiH7g by horhik@mastodon.ml
       2023-10-05T19:25:35Z
       
       0 likes, 0 repeats
       
       @make_sense Ну так то оно так. Только вот это не объясняет почему какой-либо набор параметров и весов может являтся решением
       
 (DIR) Post #AaTB42XYryKA55Safo by horhik@mastodon.ml
       2023-10-05T19:27:53Z
       
       0 likes, 0 repeats
       
       @3draven Ну вот кажись да. Я просто вообще 0 в нейронках и вот сегодня как-то с линейной регрессией пытался разобраться. В линейном случае получается что это поиск какой-то многомерной плоскости. Ну да, а вот что б это были какие-то веселые поверхности (брр страшное слово) нужно что-то более сложное
       
 (DIR) Post #AaTBIF76v1dn8ArPG4 by make_sense@mastodon.ml
       2023-10-05T19:31:34Z
       
       0 likes, 0 repeats
       
       @horhik Это как раз таки все и обьясняет :blobcatgiggle: В прочем, ты можешь почитать любую книжку об этом, там не супер страшная математика.
       
 (DIR) Post #AaTCHD8Cu4WmeCRelM by horhik@mastodon.ml
       2023-10-05T19:42:36Z
       
       0 likes, 0 repeats
       
       @make_sense Математика мне не страшна. Я понимаю, что все задача - поиск весов. Но мне просто интересно как изначально пришли к такому способу. Как до такого можно додуматься не зная изначально механизма.
       
 (DIR) Post #AaTCdt4xcjLr7Hjuu8 by make_sense@mastodon.ml
       2023-10-05T19:46:41Z
       
       0 likes, 0 repeats
       
       @horhik Ааа… тут я ничего сказать не могу)
       
 (DIR) Post #AaUz0LhCthAxCOMhgO by yastreb@mastodon.ml
       2023-10-06T16:23:17Z
       
       0 likes, 0 repeats
       
       @horhik @3draven ещё не стоит забывать, что параметры модели могут быть не вида x0=x, x1=y, ..., а допустим x0=y, x1=y^2, x2=x, x3=x^2, ..., или допустим тригонометрическое что-то, feature engineering, и уже с этими фичами делать что-то линейное. Вроде это тоже линейная регрессия, по крайней мере, разницы на деле буквально никакой кроме того что нужно считать "производные" фичи, а не напрямую их из данных брать.