Генеративная музыка — светлое будущее или закат музыкальной индустрии?

Те же музыкальные обозреватели, которые и сейчас отслушивают поток новинок, и выделяют из них что-то заслуживающее внимания. Ничего принципиально нового.

Да. Мне вообще кажется для ИИ должны быть гораздо более интересные задачи.
По поводу аранжировки, мне кажется кооперация от нейросети мелодия, а человек делает аранжировку будет более успешной. Точнее может теоретически быть.

У нейросетей с мелодиями пока хуже всего, они получаются бессмысленные. Мелодии на самом деле имитируют интонации человеческой речи, а музыкальная нейросеть про речь и ее смысл ничего не знает.

Интересно. Так от неё не смысл же нужен, а подобие речи? Интересный материал слушал, по поводу того, как национальная музыка зависит от языка.

Вот что ещё интересно было бы это разработка новых тональных систем и написание музыки в них. То есть как можно дальше от современной западной базы. Тут реально на мой взгляд можно что-то интересное нащупать именно с помощью отслушивания набора музыкальных паттернов и потом использования их уже живыми людьми.

Нужны законченные музыкальные фразы, соответствующие высказываниям в речи. Речь тоже может быть осмысленной, а может быть просто набором слов, которые формально похожи на речь, но…

Это совсем не к нейросетям, они идеальные подражаторы и комбинаторы, такие продвинутые попугаи. Если они ничего в этих тональных системах не слышали, то ничего интересного и не выдадут.

Так можно им скормить аудиокниги и пусть себе пропевают “Войну и мир”.
Опять же в скэте джазовом нет особо смысла именно как в тексте.

Они тогда будут просто зачитывать фиктивные фрагменты “Войны и мира”.

Вся фишка в том, что сочиняя музыку человек как бы имеет в виду речь, но не напрямую. Речь находится где-то глубоко в основе, как эстетический эталон, и формально это никак не выразить - даже люди ни в одном курсе композиции человеческую речь не изучают.

А там не надо ничего изучать, темпоритмические элементы речи глубоко зашиты, начиная с колыбельных и заканчивая ежедневным общением.

Да. В нас - зашиты. В нейросети - нет.

1 лайк

То есть получается для более человеческой имитации нужно зашить наслушанность среднего человека?

Надо зашить речевой бэкграунд, а чтобы его зашить, надо сначала понять, что это такое )
То есть нейросеть должна сочинять не просто мелодию, а мелодию похожую на речь, причём похожую не в звуковом отношении, а в неком абстрактно-темпоритмическом. Это довольно сложно сформулировать.

1 лайк

Да. Если она хотя бы сможет строить внятные синкопированные джазовые фразы это уже будет ОЧЕНЬ хорошо.

Обалдеть! Вроде бы как и это тоже ИИ запилил)

Стилизация есть. Текст ужасен, мелодии нет.
Эрзац для тех кто готов потреблять дискосодержащий продукт.
Как пластиковая каша в матрице.

1 лайк

Какая разница, чем вышибать эндорфины? :slightly_smiling_face:

Можно и звуковым искусственно-интеллектуальным “вибратором эрогенных зон” головного мозга, когда “секс” есть, а любви нет. :man_shrugging:

С активным внедрением ИИ, видимо, произойдет еще более кардинальное разделение слушателей на тех, кому достаточно одной только гармоническо-ритмической формы (стиля), и тех, кто улавливает и более требователен к тонким нюансам мелодии, аранжировки и музыкального смысла.

1 лайк

Вот разделение слушателей это очень интересный процесс.
Посмотрим, смогут ли ИИшные погремухи набрать хотя бы процентов 20.

По поводу эндорфинов, я думаю, будет гораздо более интересные диалоги на тему
какая разница с кем заниматься сексом, с человеком или не совсем человеком.
Там диалоги будут поэмоциональнее.

Вы даже не представляете, какие безграничные возможности несёт ИИ для прямой визуальной и слуховой стимуляции вот этого самого. Куда уж там музыке. Но не для этого столика тема )

Вывод понравился. ИИ нужен для того чтобы создавать песни типа КОТ на 10:58 и про говновоз послушать во всех возможных стилях.

1 лайк
1 лайк