В новом фильме Энга Ли актер Уилл Смит сражается со своим молодым CGI-клоном. Да таким правдоподобным, что вопрос о появлении цифровых кинозвезд встал с новой остротой. Но не стоит бояться, что вычислительная машина полностью заменит место человека в кино, считает историк спецэффектов и главред Startfilm.ru Надежда Маркалова.
Настал момент, которого все так долго ждали. Компьютерная графика пересекла «зловещую долину» и прибыла к месту назначения: у нас есть живой цифровой человек. В вышедшем только что в прокат «Гемини» один из двух главных героев не просто омоложенный актер (Уилл Смит), а полностью цифровой персонаж нового типа. И он абсолютно убедителен, и пиар-кампания фильма использовала сенсационный образ «полностью цифрового человека».
Но это не совсем так. Дигитальный клон Смита далеко не весь дигитальный. У него глаза настоящего Уилла Смита, кое-какие мимические мышцы тоже были омоложены старым способом ретуширования текстуры кожи и «цифрового лифтинга» лица, а не сгенерированы на компьютере. Именно поэтому он так хорошо смотрится.
Но кто сказал, что это неправильный путь к цели? Ведь в голливудском дорогом блокбастере то, что мы обычно считаем хорошим CGI, — это не полностью CGI. В большинстве случаев разрозненные элементы сцены снимаются в реальности, а потом соединяются в единое целое с помощью цифровых элементов. Например, огонь. Это одна из самых сложных материй для цифры. Для создания реалистичного взрыва в дорогом блокбастере VFX-художники воспользуются библиотекой отснятых элементов или выйдут поснимать свои собственные. Они поставят зеленый хромакей где-нибудь на пустыре и сделают серию взрывов. А мы потом будем говорить: «У них бюджет больше, поэтому цифра хорошая». Голова у них хорошая и руки, а цифра у них такая же, просто они умеют ее готовить.
Да, компьютер сегодня может многое. Вернее, не сам компьютер, конечно. На днях в своем Twitter журнал Wired написал о молодом Уилле Смите из «Гемини»: «Ему не нужны актерский трейлер, еда и зарплата, он не занимает место в пространстве, потому что находится на жестком диске». Это ретвитнул Пол Франклин (VFX-супервайзер фильмов «Начало», «Интерстеллар» и других) с желчным комментарием: «Ну конечно, компьютер же сам все сделал!»
Конечно, компьютер — только инструмент, за которым сидит человек. И человек этот в ближайшее время никуда не денется. Вопрос о человеческом факторе, кстати, всплыл и на последней конференции SIGGRAPH при обсуждении перспектив цифровых актеров. Ответ индустрии: люди за компьютером будут всегда, и их будет столько же, сколько и сегодня.
Взять те же нейросети, о которых так много шумят сегодня. Это частный случай искусственного интеллекта, он обучается. Но кто его обучает? Люди. И людей для этого требуется много, а еще постоянно нужно делать коррекцию навыков нейросети. Хотя уже сегодня нейросети облегчают труд людей на переднем крае VFX, они помогают анализировать mocap-данные (информацию, полученную с датчиков движения живых актеров-моделей) и делают это быстрее.
Вряд ли в обозримом будущем появится компьютерный персонаж, который будет выражать (или, точнее, генерировать) человеческие эмоции сам. Думается, что программирование такого объекта со всеми его мотивациями и реакциями, включая управление мимикой лица на микроуровне, — слишком сложная задача (заметьте, ему все равно потребуется программирование, то есть участие человека). Кино — это не только искусство, это еще и бизнес, и финансовые соображения стоят в нем на первом месте. Взять актера, нарисовать на нем маркеры и снять все реакции с живого человека будет проще и дешевле сделать еще много лет. Поэтому актеры никуда не исчезнут. Даже движения для цифровой массовки сегодня часто снимают с самих аниматоров. Это быстрее, чем с нуля программировать или анимировать цифровых людей. Причем здесь речь идет даже не о мимике, а просто об общих движениях тела. И это практикуется, даже несмотря на наличие специальной программы для имитации толпы «Massive». Для решения отдельных задач ее искусственного интеллекта не хватает.
Останется и нефотореалистичная анимация. Ведь мультфильмы — это не суррогат игрового кино, но отдельное искусство со всей эстетикой (так и фотография хоть и изменила изобразительное искусство, однако не уничтожила его). А разработки, сделанные на производстве мультфильмов, часто переходят в VFX — и наоборот: аниматоры и VFX-специалисты работают в одних программах, используют одинаковые методологии и разработки, эти два вида искусства развиваются параллельно.
Аналоговые спецэффекты тоже никуда не денутся. Они во многих случаях дешевле и быстрее в производстве, не говоря уже об их убедительности. Сегодня маятник вообще качнулся назад, и кинематографисты возвращаются к старым «практическим эффектам» (practical effects). Возьмем, к примеру, «Мир Юрского периода 2»: динозавры на крупных планах — это реальная аниматроника, а для кадров падения гиросферы с обрыва строили настоящие американские горки. Когда нужно взаимодействие эффекта с актерами, лучше всего иметь реальный объект. Эффект от воздействия гравитации на тела актеров в сцене падения сложно имитировать, их живая реакция на крутой спуск неподдельна. Изменение освещения в такой сцене, поведение волос и т.д. сложно просчитать без реальной модели — а раз так, то проще и отснять все сразу.
Но вернемся к цифре. Сегодня все обсуждают нейросети: компьютер способен обучаться, и потом работать соответственно в похожих ситуациях. Вы знакомите машину со множеством вариантов исходных данных и результатов их обработки. Она анализирует алгоритмы обработки, и в дальнейшем производит аналогичные действия с похожими примерами. Этот метод позволяет программе «Cascadeur» воссоздавать позу персонажа по небольшому числу заданных положений. Для этого ей понадобилось «всего» два миллиона примеров.
Deep learning позволяет облегчить и процесс clean-up (когда из отснятого материала надо удалить лишние объекты). Мы же видели примеры deepfake, когда одного актера заменяют другим. Эта технология позволяет неизвестному актеру замещать, скажем, Мэрилин Монро, то есть сыгранный им персонаж будет выглядеть будто сыгранным Мэрилин Монро (хорошая актерская техника всегда включает умение имитировать другого). Здесь возникают вопросы этики и юридического толка: кому принадлежит копирайт на лицо умершей звезды? Кому и какой нужно платить гонорар?
Сегодня нейросети запросто используют для переноса данных, полученных при мокапе человеческого лица, на персонажа. Эта задача не так уж и проста. В сырых данных захвата движения много крошечных погрешностей, от них надо избавиться, сохранив особенности игры актера. Но как отличить погрешность от реальной актерской игры? Можно ли доверить такое решение исключительно машине? А потом идет перенос отобранных данных на цифровую куклу персонажа, и эта задача очень усложняется, если внешний вид персонажа разительно отличается от внешности актера. В особо сложных случаях приходится сперва тестировать эти данные на цифровой кукле актера. Если все верно, движения куклы будут идентичны движению актера, которого во время мокапа обязательно снимают несколькими обычными камерами, чтобы иметь несколько ракурсов для сравнения.
Ниже пример работы нейросети в фильме «Мстители: Финал». Члены команды студии Framestore использовали ее для создания Халка. Они говорят, что нейросеть помогла проделать работу быстрее, но без аниматоров ее все равно выполнить бы не могли.
Кстати, еще один нюанс: лицо человека меняется с возрастом, причем год от года. И то, что работало для оцифровки актера два года назад, сегодня уже обычно не годится, нейросеть нужно корректировать. Плюс лицо меняется индивидуально. Алгоритмы, работавшие для мокапа одного человека, не годятся для другого.
И другой важный нюанс: для любого искусства важны отступления от алгоритма — спонтанность, погрешности, неточности и небольшие ошибки. Может ли компьютерная программа научиться нелогичности и спонтанности? Фантасты ХХ века много писали об этом, но пока их фантазии остаются фантазиями.