🤡 ChatGPT, AI, ML, AGI, ASI и другое обесчеловечивание

В основном перешел на Claude. Почти интуитивно уже понимает промты. ChatGPT надо постоянно корригировать.

2 лайка

7 лайков

А вот подтверждение

1 лайк

Пропаганда at scale

The scale and sophistication of the operation were made possible by the use of ChatGPT, an artificial intelligence tool created by OpenAI

Вот тебе гораздо более “земной” пример, отсюда и ниже)

2 лайка

ИИ в массы, приложение Шедеврум.

Зато можно попросить продолжить книгу, гугл так не умеет

1 лайк

Денис Тулинов сегодня в Telegram:

Пузырь генеративного ИИ начал лопаться, считает Маркус. Он упрекает обучателей крупнейших нейросеток в том, что у них нет внятной бизнес-модели, которая окупила бы гигантские затраты этого сектора. Вложены уже сотни млрд. $, а главный вопрос надежности/галлюцинаций так и не решен, что резко ограничивает применимость технологии.

Он и не будет решен, т.к. это неотъемлемое свойство GenAI, настаивает Маркус.

В целом он твердит об этом давно, но теперь предрекает крах уже в этом году: “Пользователи потеряли веру, клиенты потеряли веру, венчурные инвесторы потеряли веру”. Возможно, его сподвиг недавний отчет Goldman Sachs “Gen AI: too much spend, too little benefit?”, где проводится та же мысль, более мягкими словами (см. также разбор отчета).

Несмотря на ряд успехов GenAI, например, в генеративной (био)химии, можно видеть, как тускнеют ожидания и как меняется тон комментариев, не только у Маркуса. Все наигрались в генерацию картинок/текстов и хотят, наконец, использовать ИИ в реальных задачах. Но этот переход не дается — в силу самой природы GenAI. Ключевой изъян в том, что GenAI беззащитен перед т.н. “выбросами”. Если на входе паттерн, сильно отличный от паттернов в обучающей выборке, на ответ нельзя положиться. Такой ИИ не понимает и не мыслит, он создает новые данные по шаблону старых.

Масштабирование не избавит от проблем (см. “AI scaling myths”). Метрики, где ИИ превосходит людей в решении задач, не измеряют интеллект/мышление, а превосходство может быть хрупким. Синтетические данные — не панацея от дефицита данных для обучения, такой маневр быстро ведет к коллапсу, т.к. каждая следующая модель учится не на реальности, а на предсказании реальности предыдущей моделью, и даже малые ошибки итеративно усиливаются.

4 лайка

Теперь будут программисты на GPT с нечеткой логикой

7 лайков

6 лайков
1 лайк

Первые реальные жертвы “творчества” ИИ

1 лайк

Робот не может навредить человеку. А человек — может.

2 лайка

Робот “поможет” человеку навредить эффективнее.

А вот успехи тех, кто ловит из ведра с рыбками

2 лайка

Таня Шаврина — умница и красавица

1 лайк
1 лайк