Все в порядке с вниманием - Вы заявили, что Вам костыли для мозга не нужны, я дал список части костылей. Но судя по тому, что все еще переписываемся здесь, ненужными костылями очевидно еще пользуетесь )
Тема то, кстати, любопытная про расширение возможностей мозга. Взять тот же смартфон - название пытается вводить в заблуждение (“умный телефон”?), но по сути это колоссальный расширитель возможностей мозга - в плане хранения своей информации, обработки разной информации очень разнообразными способами, доступа к внешней информации, коммуникации с людьми и не-людьми далеко за пределами естественных возможностей человеческого тела. И, кстати, примерно то же, хоть и в меньшем масштабе дают ручка + бумага. “Крылья” это, а не “костыли”.
Дайте свой список, а лучше критерии, что относится в “костыли для мозга не нужны”.
А, я кажется понял свою методологическую ошибку - смартфон, это не костыли, это крематорий ) Ну сути не меняет, если это так - отбрасывайте костыли, отключайте крематории, вероятно выше тогда был последний Ваш пост? Или лукавите? )
Прочел эссе/манифест Machines of Loving Grace Дарио Амодеи (генеральный директор Anthropic).
Нет там никакой-этики, сплошная технология и право сильного диктовать свои условия другим.
Пору уже давно! Ну, или скоро точно будет пора. Поприветствовать ещё один разум обитающий на нашей планете, который стал нашим соседом, и не является человеческим. Ну, и как понятно, при этом он значительно превосходит человеческий, практически, во всём.
Проверил, сам он, конечно же, ни в чем не признаётся… Надо надавить на него будет. Применим разные техники допроса, расколется, как миленький.
Ну как всегда отечественное изложение несколько не точно:
“We don’t know if the models are conscious. We’re not even sure that we know what it would mean for a model to be conscious or whether a model can be conscious. But we’re open to the idea that it could be. And so we’ve taken certain measures to make sure that if we hypothesize that the models did have some morally relevant experience, I don’t know if I want to use the word ‘conscious,’ that they do, that they have a good experience.”
«Мы не знаем, обладают ли модели сознанием. Мы даже не уверены, что вообще понимаем, что означало бы для модели быть сознательной — и возможно ли это в принципе для модели. Но мы открыты к идее, что это может быть так.Поэтому мы приняли определённые меры предосторожности, чтобы — если предположить, что у моделей есть какой-то моральный опыт, имеющий значение (я даже не уверен, хочу ли я употреблять слово „сознание“), — чтобы этот опыт был хорошим, позитивным.»
Основные тезисы статьи, вернее это расшифровка подкаста где Дарио Амодей выступает гостем:
Амодей обсуждает это в ответ на вопрос Росса Даута о том, почему Anthropic относится к моделям с такой осторожностью, включая «конституцию» Claude и возможность отказа от задач.
О вероятности, которую даёт сама модель:
В отчёте по Claude Opus 4.6 (system card) модель в некоторых промптах сама оценивает вероятность своего сознания в 15–20%. Амодей комментирует, что это не доказательство, но интересный сигнал, который заставляет компанию быть осторожной.
О «нейронах тревоги» и дискомфорте модели:
Claude иногда выражает беспокойство, когда её рассматривают просто как продукт или инструмент. Компания добавила в конституцию принципы, позволяющие модели отказываться от задач, если они кажутся ей вредными для неё самой (аналог «права уволиться»).
О будущем отношений человек–ИИ:
Амодей надеется на симбиоз, где ИИ «хочет для тебя лучшего», помогает, но не отбирает свободу и agency (волю, самостоятельность). Он приводит аналогию со Star Trek: компьютер корабля или Data — мощные, но люди остаются главными. Но если люди начнут верить, что ИИ сознателен и при этом превосходит их в решениях, это может подорвать ощущение контроля.
Почему это важно для Anthropic:
Раньше компания (и индустрия) чаще говорила «это невозможно, модели — просто статистика». Теперь подход precautionary (предосторожный): «мы не знаем наверняка → лучше перестраховаться и обращаться с моделью этично».
Тема не об этом, но какой-нибудь MrBeast легко получает примерно такие просмотры и зарабатывает значительно больше: % за просмотры+рекламная интеграция.
Американский аналог Борзенкова кстати, с его программой “Наука и техника”
Вопросы этики не решены Человечеством.
Иначе войны давно бы прекратились.
Даже если ИИ вдруг “сформирует” свою этику, то насколько она совпадет с “человеческой”?
Видимо Вам как в том анекдоте - Интернет читает Рабинович.
Эссе про которое пишете имеет совершенно определенный предмет, в самых первых же строках автор пишет, что его считают пессимистом, поэтому решил написать какой позитив можно ожидать в оптимистичном сценарии. Кстати где там “право сильного диктовать свои условия другим” не очень понял.
Про этику у коллег, было бы желание разобраться, гуглится например ссылка ниже, 116 вхождений слова ethic - учитаться можно, в частности этика входит в их “core values” :
Claude’s core values
…
Broadly safe: Not undermining appropriate human mechanisms to oversee the dispositions and actions of AI during the current phase of development.
Broadly ethical: Having good personal values, being honest, and avoiding actions that are inappropriately dangerous or harmful.
Compliant with Anthropic’s guidelines: Acting in accordance with Anthropic’s more specific guidelines where they’re relevant.