Нейропрактика | Все о нейросетях
⚡️ Ну вот и все) SeeDance 2.0 стал доступен всем! (Правда, пока без бесплатных тестов)
А если быть точнее — всем, кто готов заплатить за него звонкой монетой и смириться с особенностями местной цензуры 😁. Вообще, эта моделька у всех на слуху еще с конца февраля, но только сейчас начала распространяться по открытому API для всех желающих.
Отложенный запуск во многом связан с тряской в Голливуде, который панически боится появления огромного количества качественного нейросетевого контента с нарушением авторских прав. И их можно понять, глядя на то, какие крутые кадры выдавала эта нейронка в завирусившихся видео.
А теперь о самом важном — коротко и по пунктам:
◻️Для всех ли SeeDance 2.0?
В первую очередь — для увлеченных контент-мейкеров. Это ваш выбор, когда нужна лучшая модель для генерации сложных секвенций, динамики и консистентных быстрых сцен. Для более простых задач (вроде генерации анимированных карточек для маркетплейсов) такая дорогая моделька будет явным излишеством.
◻️Где купить доступ?
Самым удобным способом поработать с SeeDance 2.0 остаются нейросетевые агрегаторы, и сейчас их станет еще больше. От себя можем порекомендовать Higgsfield — у них один из самых приятных ценников и удобная среда для работы. Доступ также появился на Freepik и Syntax (хотя на последнем пока не хватает части функционала — например, режима работы с элементами).
◻️ Какие есть подводные камни?
1. Жесткая цензура. Препоны Голливуда дают о себе знать. Есть большая вероятность, что ваша генерация даже не начнется: при использовании фотореалистичного лица алгоритм часто перестраховывается и отменяет задачу, принимая человека за знаменитость.
2. Цена. Инструмент дорогой, в качестве игрушки на пару вечеров точно не подойдет.
3. Сложность пайплайна. У SeeDance сложный многофакторный процесс, который не ограничивается простой работой с начальными и конечными кадрами. Нюансов уйма: от построения композиции из наборов элементов до подбора оптимальных таймингов и сбора библиотеки рабочих промптов. Во всем этом нам еще предстоит разобраться.
◻️ Есть ли смысл в других нейронках теперь?
Еще как! Та же Sora 2 (которая доживает свои последние месяцы) всё ещё лучше конкурентов понимает контекст, хоть и сильно уступает в качестве видео. А Kling 3.0 — это буквально брат-близнец SeeDance, но с чуть худшей консистентностью, кратно более низкой ценой и без параноидальной цензуры.
◻️ Какой у нас план?
Мы сейчас вовсю тестируем SeeDance 2.0 на нашем самом масштабном видеопроекте. Изучаем алгоритм буквально до основания. И как только накопим достаточно опыта, которым не стыдно поделиться — выпустим большое видео с подробным разбором инструмента!
Кстати ролик про отпуск начальника, мы в большой его части на SeeDance 2.0😁
♥️Пока большой разбор инструмента в работе, с радостью ответим на все вопросы в комментариях: