🤡 ChatGPT, AI, ML и другое обесчеловечивание

Вы пишете не про то что у вас в фокусе, а про весь мир. И выводы ваши читаются не как локальные про узкую тему, а натянутые на всю вселенную.

Давайте по частям.

То что машина “не воспринимает” видимо имеется в виду, что не имеет сознания? В этом смысле скорее всего так и есть т.к. мы сами толком не знаем, что такое сознание. Но чисто технически на вход данные воспринимает и способна производить их преобразования. И судя по всему человеческий разум примерно то же самое делает по основному объему информации - помимо сознания производит преобразования входящих потоков от органов чувств “на автомате”. И последующая работа сознания пост фактум рационализирует произошедшее (полагаю знакомы с опытами по этому поводу). Что делает наш “черный ящик” или система 1 если по Канеману - не менее неочевидно, а может и более, чем работа сознания насколько понимаю.

В части “не может породить ничего нового в отношении системных структур и алгоритмов” - крайне сомнительное утверждение. На основе промпта ChatGPT способен сформировать новую программу содержащую системные структуры (например программные структуры данных) и очевидно алгоритмы. Практически то же сделает программист в соответствии со спецификацией на разработку. Да сложность/объем программы которою способен сейчас сформировать ChatGPT. Но раз уж мы про принципиальные отличия и соответственно если вы про какие-то принципиально новые алгоритмы и структуры данных, то доля программистов создающих что-то подобное исчезающе мала.

В сухом остатке с чем могу согласиться - на текущий момент ИИ не способен на сознательный отбор по сложным критериям из созданного собой же или другими (людьми или ИИ) оптимальных элементов для формирования комплексного результата и интеграцию комплексного результата. Но на текущий же момент не знаю о принципиальных ограничениях почему бы он не мог это ограничение преодолевать в будущем. Причем судя по темпам прогресса вполне возможно не слишком отдаленном.

Поставил Github Copilot + Chat. Он с моим примером функции на C, где всегда 2 на выходе, тоже не справился:

Вернемся к вопросу, какое значение вернет функция. Давайте рассмотрим несколько случаев:

  1. Если a не равно 0 и a не равно 2, то c = a - (a - 6 + 16) + 12 = a - a + 6 - 16 + 12 = -10 + 12 = 2.
    2. Если a равно 0, то c = 2 - (0 - 6 + 16) + 12 = 2 - 10 + 12 = 4.
  2. Если a равно 2 и b не равно -4 (то есть a не равно 10), то c = 0 - (2 - 6 + 16) + 12 = 0 - 10 + 12 = 2.

Ну почти правильно ответил, единственный случай когда а=0 (и который включен в код только чтобы запутать того, что его читает) будем считать исключением :slightly_smiling_face:
Но конечно code review ему доверять нельзя.

Толково на приемлемом уровне

4 лайка

Что получается, если пытаться развивать AI экстенсивно.
Дайте ещё 7 триллионов, пацаны.

1 лайк

Напечатают. Других сильных ставок нет.

Что получается? Для всех причастных - очень вкусно может получиться. Сложно сказать про результат в плане развития ИИ, а вот по бизнес-результату очевидно слюноотделение (например рост капитализации) уже в процессе. Ну а если в результате “не шмогла” будет с ИИ - всегда можно сказать, что пары триллионов не хватило )

Даже если отбросить жажду выгоды, там проблема в том, что объём требуемых вычислительных ресурсов экспоненциально растёт при увеличении сложности. Чтобы каждый раз делать интлеллект “чуть умнее”, надо использовть в N раз больше ресурсов. И эта дорожка быстро приводит в тупик, что и продемонстрировал Альтман.

1 лайк

Не понял почему тупик. Экспоненциальный рост собственно происходит (он же закон Мура в разных формулировках), на этом тема ИИ сейчас и расцвела. Другой разговор, что при желании форсировать относительно оперативно ресурсы - такая сейчас цена вопроса, это да, время трансформируется в деньги по экспоненте. И если наконец загнется закон Мура - придется наконец приложить голову к оптимизации как к мейнстриму. Про тупик же я бы пока не делал выводы, до выявления действительно фундаментальных причин почему мы не можем концептуально повторить нашу междуушную субстанцию (если такие причины есть).

Тупик, потому что всё упирается в доступные вычислительные мощности. Которые как бе заканчиваются. Чтобы продолжить совершенствование GPT, надо вложиться на 7 трлн.
Закон Мура это хорошо, но это не волшебная палочка, которая бесплатно удваивает мощность каждые N месяцев. Есть ещё второй закон Мура, который говорит, что стоимость фабрик по производству микросхем растёт тоже экспоненциально, параллельно с ростом вычислительной мощности. То есть опять упираемся в 7 трлн. :grinning:

Это уже произошло, плотность транзисторов на чипе перестала удваиваться по закону Мура ещё в 2010-х и в ход пошли оптимизации и распараллеливание. Расчеты для нейросетей как раз хорошо распараллеливаются, но там тоже есть предел.

Мы - это кто конкретно? Межушную субстанцию не самые тупые люди пытаются повторить с середины прошлого века и пока ничего толкового не получилось.

1 лайк

Все же либо тупик либо задорого, но не тупик, я же выше аккуратно написал “он же закон Мура в разных формулировках” ) И про 7 трлн непонятно что вообще имелось в виду и имелось ли вообще в виду - слухи есть слухи, тема только для воскресного вечера…

Да, мы - это люди, может кто еще этот форум читает, но я имел в виду людей )
Насчет “ничего толкового” явное преувеличение, значительную часть задач традиционно считавшихся “интеллектуальными” машины таки научились решать значительно эффективнее человека. И мой тезис был про мягко говоря неочевидность тупика - “до выявления действительно фундаментальных причин почему мы не можем концептуально повторить”. Да и повторение, как у человека обычно с машинками бывает, едва ли буквальное получится, если получится - см хотя бы выше пример про птицу и самолет, один в один птицу повторить не можем, но в общем то и не нужно.

Где слухи? Там ссылка на предельно конкретное сообщение от Reuters.

А фундаментальные причины, почему вообще сможем повторить, разве не интересуют? Их то тоже нет. Получается беспредметный разговор - может повторим когда нибудь, неизвестно когда и почему, а может и никогда не повторим. Никаких аргументов, ничего.

По ссылке Reuters не вижу, вижу WSJ про по сути слух о том, что там Альтман переговаривается. Не прямая декларация самого Альтмана или тех с кем он переговаривается.

Предмет разговора есть в топике в котором переписываемся “ChatGPT…”, а именно - есть конкретные достижения которые вызывают такой интерес. А также есть продолжающийся тренд по развитию этой и смежных технологий в который вкладываются очень серьезные деньги. О том как может развиваться тренд - есть прогнозы разные, об этом мы с вами уже поговорили.

И кстати (в контексте разговора с утра в понедельник, а не вечером воскресенья) пишется, что эти триллионы далеко не только про фабрики, а про “about increasing global infrastructure and supply chains for chips, energy and data centers—which are crucial for AI and other industries that rely on them”. Т.е. если читать широко, что это вся инфраструктура в т.ч. по генерации электроэнергии, фабрики для производства чипов и датацентры с этими чипами и всем остальным железом для промышленных решений использующих ИИ - в таком контексте 5-7 трлн начинают звучать не так уж фантастично. Особенно с учетом например сценариев замещения работников-людей на ИИ.

Всех бесит Nvidia :))

Где вы увидели WSJ? Я дал ссылку на обсуждение на Hacker News, которое ссылается на эту статью:
https://www.reuters.com/technology/openais-altman-talks-raise-funds-chips-ai-initiative-wsj-2024-02-09/

У них же в заголовке “OpenAI’s Altman in talks to raise funds for chips, AI initiative - WSJ”. По второй ссылке видимо та статья, из которой у Reuters дровишки.
https://archive.is/tyZq2#selection-6231.180-6234.0

Ага, жадные негодяи. Надо жить по средствам! $5-7 трлн, не более ))

Ммм, хитрый способ как обойти paywall у WSJ )

Да изящно. И даже любопытно насколько широко оно так работает.

3 лайка