Post B2qRiE4uUd8x3HoKJs by mrclon@mastodon.ml
(DIR) More posts by mrclon@mastodon.ml
(DIR) Post #B2qQDA5nA7Ppl7qYcK by mrclon@mastodon.ml
2026-01-31T12:55:55Z
0 likes, 0 repeats
Короче телега такая: по информации из чрезвычайно авторитетного источника (какой-то ютубер так сказал) большие языковые модели вышли на плато по качеству, и существенные улучшения происходят только по части оптимизации. Т.е. обучать новые модели становится дешевле, и вместе с тем планка качества перестала стремительно убегать.А значит всё более возможным становится создание полностью опенсорсной LLM. Не привычного уже OpenWeight, а настоящией опенсорс, со свободным доступам и к готовой модели, и к базовой, и к промежуточным шагам обучения, и к коду и к данным для обучения.Вопрос только в том позволят-ли все эти оптимизации получить конкурентоспособную модель обучаясь только на свободных данных?
(DIR) Post #B2qRiE4uUd8x3HoKJs by mrclon@mastodon.ml
2026-01-31T13:12:43Z
0 likes, 1 repeats
Нет, вы только подумайте, года два - три назад из каждого утюга нам (мне) кричали что «ИИ ЭТО ДРУГОЕ», что технология на столько сложна, требует столько данных, вычислительных мощностей и компетенций что пара крупнейших корпораций сможет чего-то добиться в этом поле, и только кто-то один выйдет победителем из этой битвы, получив 100% огромного рынка. Moat непреодолим, рынок бесконечен, и победитель получит его целиком. А значит никакая цена за этого будущего победителя не будет чрезмерной.Прошла пара лет, и что мы видим? Производительность вышла на плато, разработка LLM сплошь убыточна, прибыли в индустрии есть только у провайдеров хостящих чужие модели, и это очень конкурентный рынок, рандомные китайские компании без пафоса и фанфар создают собственные state of the art LLM, все говорящие головы у которых мозгов больше чем у AI-crypto-bro (больше нуля) говорят что ситуации «победитель получает всё» не будет, и капитализации причастных компаний обоснованы ничем
(DIR) Post #B2qXTq5DVbbSIsTe2i by AlexNight@mastodon.ml
2026-01-31T14:17:20Z
0 likes, 0 repeats
@mrclon Плато в ИИ прорывается примерно каждый год.В 2025 это была техника цепочки мыслей.В 2026 году скорее всего будет новая архитектура запоминания TITANS.Хотя прорывы наверное наоборот приближают полностью опенсорсный ИИ. Крупные компании публикуют свои исследования.