summaryrefslogtreecommitdiff
path: root/content/posts/2025-10-06-ai
diff options
context:
space:
mode:
Diffstat (limited to 'content/posts/2025-10-06-ai')
-rw-r--r--content/posts/2025-10-06-ai/hype_curve.pngbin0 -> 130810 bytes
-rw-r--r--content/posts/2025-10-06-ai/index.md124
2 files changed, 124 insertions, 0 deletions
diff --git a/content/posts/2025-10-06-ai/hype_curve.png b/content/posts/2025-10-06-ai/hype_curve.png
new file mode 100644
index 0000000..9147d5e
--- /dev/null
+++ b/content/posts/2025-10-06-ai/hype_curve.png
Binary files differ
diff --git a/content/posts/2025-10-06-ai/index.md b/content/posts/2025-10-06-ai/index.md
new file mode 100644
index 0000000..fe9f933
--- /dev/null
+++ b/content/posts/2025-10-06-ai/index.md
@@ -0,0 +1,124 @@
+---
+cover: /posts/2025-10-06-ai/hype_curve.png
+date: "2025-10-06T22:00:00Z"
+tags:
+ - размышления
+ - разное
+ - ИИ
+title: Размышления о будущем ИИ
+---
+
+Немного моих размышлений про будущее ИИ как технологии, а не философии.
+
+Как водится, когда речь о размышлениях — буду сначала вводить тезисы, а потом,
+синтез.
+
+<!--more-->
+
+# Тезис первый
+
+Хоть сам и не пользуюсь таким инструментом, как Cursor из третьих рук я узнал,
+что там не просто внутри нейронка, а целый их ансамбль. Более того, что главное,
+там есть автовыбор того, какая именно БЯМ (большая языковая модель) будет
+отвечать за конкретный запрос. И вот этот момент меня заинтересовал. Я
+задумался, как именно это может быть реализовано. Первая мысль, как самая
+очевидная была в том, что внутри помимо больших моделей, есть и маленькая,
+единственная функция которой (а может и не единственная, но, значит, основная) —
+классифицировать запрос (окей, промпт) по тому, какая из больших моделей возьмёт
+работу на себя.
+
+Мысль эта мне показалась немного диковатой, т.к. показалось, что это несколько
+пушкой по воробьям, и подумал, что может есть другое, более классическое,
+алгоритмическое решение. Думал-думал, ничего хорошего в голову не пришло.
+Поэтому всё же взял за рабочую гипотезу, что таки да, классифицирует маленькая и
+дешевая моделька. Маленькая и дешёвая да, но точно не локальная. Ведь даже для
+маленьких моделек нужны определённые мощности, которые есть далеко не у всех.
+
+И вот здесь-то мысль и полетела дальше! Представилось что в будущем всё больше и
+больше «классические» алгоритмические задачи будут «закрывать» нейронками там
+где надо и не надо. Чем-то напоминает ситуацию в электронике, когда экономически
+часто более целесообразно не придумывать схему на элементарных радиодеталях, а
+воткнуть просто унифицированный микроконтроллер, который с правильной прошивкой
+заменяет целую кучку рассыпухи.
+
+Но продолжение мысли пока попридержу. А пока...
+
+# Тезис второй
+
+Я человек молодой, но более менее успел застать такой интересный переферийный
+девайс, как [математический
+сопроцессор](https://ru.ruwiki.ru/wiki/Математический_сопроцессор). Назначение
+устройства — позволять компьютеру выполнять операции над вещественными числами.
+Представляете, когда-то процессоры такие операции сами не умели выполнять! Но
+надо делать скидку на время и то, что такие операции были, наверное, не всем
+нужными, а скорее уделом специалистов, которые знали зачем им эта железка и
+целенаправленно её докупали. Сейчас любой, даже самый слабейший процессор имеет
+этот сопроцессор внутри себя.
+
+Ничего не напоминает?
+
+Нейронки и видеокарты!
+
+А вот сейчас, соединим тезисы и придём к ...
+
+# Синтез
+
+Нейронки, однозначно, вошли в нашу жизнь уже на долго.
+
+![Кривая хайпа](/posts/2025-10-06-ai/hype_curve.png)
+
+Мы сейчас, по моей оценке, где-то между пиком и дном, причём ближе именно к
+пику. Затем, неизбежно будет дно разочарований. Но это не столь важно сейчас.
+Важнее — следующий этап. Выйдет ли технология на плато продуктивности? Скорее
+всего, да. Всё же, помимо того, что это «ыыы прикольная штука», это ещё и вещь
+со вполне очевидной прикладной пользой. Не буду вдаваться в подробности, но я
+имею в виду обработку естественного языка (классификация, суммаризация,
+генерация), а так же «нечёткие» алгоритмы, когда путь к решению не задан заранее
+(агенты и всё такое).
+
+И по той причине, что мы ещё не на плато, есть ощущение некоего «дикого запада».
+Ещё не устаканились методы и подходы, практически ежедневно что-то появляется
+новое, а старое исчезает. Горизонт - буквально пара месяцев. И инструменты всё
+ещё крайне сырые. Под инструментами я имею в виду даже не программные
+инструменты, а то на чём это запускается. А запускаются нейронки на видеокартах!
+ВИДЕОкарты, Карл! Лично мне это выглядит несколько костыльным. Причём даже
+мощные профессиональные решения типа A100, H100 за миллионы рублей это по сути
+именно что видеокарты, хоть и без видеовыходов. Даже у криптовалют когда они
+были на хайпе и майнились на тех же несчастных видеокартах достаточно быстро
+появились специализированные решения в виде
+[айсиков](https://ru.ruwiki.ru/wiki/Интегральная_схема_специального_назначения).
+Ждут ли нас специализированные решения для задач ИИ? Конечно. Даже более того,
+они уже есть. У того же Huawei. Устройства, которые заточены только для нейронок
+и никак не способные в графику. И это, ИМХО, правильный путь, туда индустрия и
+пойдёт.
+
+Но это, опять таки, всё ещё настоящее. А что там в будущем?
+
+А в будущем, думаю, нас ждёт то, что специализированные устройства для инференса
+(запуска готовых моделей, грубо говоря) буду встроены непосредственно во все
+потребительские компьютеры и даже носимую технику, типа телефонов. Ровно так же,
+как было с математическими сопроцессорами, которые начинали отдельным
+устройством, а сейчас уже давно — просто небольшая часть на кристалле
+процессора. А применение им вижу как раз таки в том, чтобы там постоянно сидела
+небольшая (ну небольшая для того, будущего времени, для нас настоящих, скорее
+всего, весьма большая) моделька, к которой по вполне стандартизированным API ОС
+будет обращаться прикладной софт, чтобы выполнять какие-то свои прикладные
+задачи. Типа той, про которую я говорил в самом начале, по классификации того, в
+какую большую модель пойдёт запрос пользователя. Более того, кажется, что со
+временем это станет настолько общим местом, что многий софт и не запустится на
+железе без встроенного «интеллектуального сопроцессора». Как сейчас не
+запустится многий софт без, даже не математического сопроцессора (где вы найдете
+процессор без него?), а, например, каких нибудь SSE2 инструкций (я, честно
+говоря, не очень знаю зачем они, но, подозреваю, без них многое не заработает).
+А значит в этом самом будущем эти «интеллектуальные сопроцессоры» будут просто
+базовой частью любой ЭВМ (ну нравится мне эта аббревиатура).
+
+Да, можно возразить, что никак физически невозможно впихнуть такую
+вычислительную мощь в маленький кристалл на плате ноутбука, а, тем более,
+телефона. На это я отвечу просто: не знаю. Может быть и невозможно и такого не
+будет. Но ведь когда-то казалось невозможным что компьютер не будет занимать
+несколько комнат, а умещаться в кармане джинс каждого человека! Причём, тот что
+в джинсах, ещё и на много порядков будет мощнее! Так что я бы ничего не
+исключал.
+
+А как вы думаете?