СофтЛаб-НСК SoftLab-NSK on Facebook RSS
Продукты Где купить Загрузка Поддержка Форум О компании Новости Русский Английский
Виртуальная студия Фокус
Карта сайта
Навигация по сайту:
 

Вопросы и ответы по студиям "Фокус"
Дата последнего изменения: 24.02.2011

На данной странице приведены некоторые вопросы по виртуальным студиям "Фокус", часто задаваемые пользователями, и ответы на них. Для удобства поиска вопросы объединены в тематические категории:

  1. Перед покупкой
  2. При получении
  3. Общие вопросы
  4. Коннекторы и соединения
  5. Свет, фон и настройки кеинга
  6. Данные и форматы
  7. Конфигурации и опции
  8. Дизайн трехмерных сцен
  9. Язык сценариев
  10. Hotset - интерфейс оператора
  11. Качество входного и выходного видео
  12. Настройка звука
  13. Известные проблемы
  14. Прочие вопросы

 Если Вы не нашли ответ на свой вопрос, обращайтесь в отдел технической поддержки, либо в форумы по продуктам. Рекомендуем также изучить документацию по виртуальным студиям "Фокус".

К началу 1. Перед покупкой

1.1. Возникла необходимость приобрести Виртуальную студию. Куда можно направлять заказ на её приобретение и что нужно обязательно указать при заказе?
     Заказ на приобретение Виртуальной студии можно направить в отдел продаж нашей компании sales@sl.iae.nsk.su или любому из поставщиков нашей продукции. Перед тем, как сделать заказ, нужно определиться, какая конфигурация Виртуальной студии требуется для работы. Краткое описание возможных конфигураций можно найти в прайс-листе и на страничке нашего сайта.
     При заказе Виртуальной студии требуется уточнить, с каким типами входных и выходного видеосигнала Вы собираетесь работать: S-Video, компонентным, SDI или HD. Как видно из прайс-листа, тип рабочих видеосигналов определяет название студии и её стоимость: Фокус, Фокус ПРО, Фокус SDI, Фокус HD.
     Следующее, что необходимо указать - какое количество видеоисточников Вы собираетесь подключать к виртуальной студии. Студия собирается на основе плат FD300 (за исключением HD студии), которые устанавливаются в PCI-слоты материнской платы. К каждой из плат захвата можно подключить 2 источника видеосигнала.
     Подразумевается, что в тех студиях, которые указаны в прайс-листе, установлена одна плата захвата. И в этих студиях можно подключать только 2 входных видеосигнала, причём эта же плата одновременно является и выходной (выводится результирующее изображение).
     Поэтому, если планируется работа, к примеру, с 3-мя видеокамерами, необходимо, кроме самой студии (подключение 2-х камер), приобрести также ещё дополнительно одну плату FD300 в студию для подключения 3-ей камеры. В прайс-листе дополнительная плата FD300 значится как "Дополнительные входные каналы для студии..." в зависимости от типа выбраннной студии.
     Кроме этого, нужно определиться, требуется ли синхронизовать выходной видеосигнал студии к какому-либо внешнему источнику, потому что опцию Genlock для такой синхронизации требуется приобрести дополнительно.
     Также необходимо решить вопрос коммутации. При поставке к студии обычно прилагаются коммутационные шлейфы для каждой из плат, которые не всегда удобны для подключений. Чтобы вынести все подключения на одну панель, можно дополнительно приобрести коммутационную(-ые) панель(-и) - активную (с балансным звуком и переключателями сопротивления), либо пассивную.
     После того, как Вы выберете все нужные компоненты заказа, по прайс-листу можно оценить стоимость заказываемой студии, а далее обращаться с заказом, указав свои реквизиты для того, чтобы можно было выставить счёт.
1.2. Как организована синхронизация выходного сигнала Виртуальной студии ко внешнему источнику (GenLock)?
     В качестве устройства синхронизации студии используется плата FD300 (за исключением HD студий), установленная в PCI-слот материнской платы.
     При использовании платы FD300 в обычном режиме используются оба её канала для ввода видеоданных. Когда плата FD300 используется в режиме GenLock, рабочим является только один из каналов, к которому и подключается синхронизующий сигнал внешнего устройства. В этом случае такая плата не используется для ввода видеоданных, а только для вывода выходного изображения.
1.3. Что входит в комплект поставки при покупке Виртуальной студии?
     В стандартную поставку входят: сконфигурированный и настроенный системный блок, DVD-диск с инсталляционным пакетом и документацией. Если не были заказаны дополнительно коммутационные панели, то для каждой платы FD300 в студии поставляется коммутационный кабель с коннекторами для подключения аудио- и видео- сигналов, а также набор переходных кабелей для подключения S-Video.

     В комплект поставки студии для работы c видеосигналами HD также включён модуль-преобразователь DVM62, предназначенный для вывода видеосигнала.

     Инсталляционный пакет виртуальной студии находится на диске D: компьютера, в папке Focus. Он включает в себя:
  1. Документацию (папка VS_Docs).
  2. Пакет ПО, в который входят:
    - драйверы для видеокарты от NVIDIA (папка 266.58_desktop_winxp_32bit_international_whql *);
    - программа для захвата сигнала FDCapture (папка Capture) (в виртуальных студиях с опцией синхронизации сигнала ко внешнему устройству Genlock эта программа позволяет записывать выходной сигнал(как avi-файл) при работе студии на жёсткий диск);
    - драйверы для плат FD300 (папка FD300Drivers);
    - драйверы для материнской платы (папка MBSupermicro *);
    - набор вспомогательных средств для проверки рабочего состояния студии (папка Misc);
    - регистрации: файлы с расширением *.reg, в которых содержатся записи реестра с разрешением работать с данной конфигурацией виртуальной студии (папка Registrations);
    - инсталлятор пособия для начинающих осваивать виртуальную студию (папка VS_Tutorial);
    - инсталлятор модуля для работы с выводом изображения рабочего стола удалённого сетевого компьютера (папка VSDesktopCapture);
    - инсталлятор модуля работы с GPI-устройствами (папка VSGPIControl);
    - инсталляторы основного рабочего приложения студии HotActions, приложения для дизайнеров HotActionsDesign (с которым можно работать на любом компьютере), а также приложения HotActionsLite (папка VSHotActions_163 *).
  3. Набор примеров (папка VS_Samples).
  4. Исходные сцены 3DS MAX для примеров из папки VS_Samples (папка VS_Samples_Sources).

* - номера версий в названиях папок могут быть другими.
1.4. Можно ли с помощью ПО, входящего в состав виртуальной студии Фокус Лайт, экспортировать сцены с виртуальными декорациями, созданными в 3DS MAX, для дальнейшей работы с ними в студии?
     В спецификации продуктов серии Лайт указано "без возможности дизайна виртуальных сцен", что означает, что в рамках данного продукта нет возможности самостоятельно изготавливать проекты для показа телевизонных программ. Студии Лайт предназначены только для проигрывания виртуальных декораций с актёрами в уже готовых проектах. Проекты заказываются у любого дизайнера, имеющего возможность работы с полными продуктами серии Фокус (в приложении HotActions).
     Но при этом комплект поставки студии Лайт включает демонстрационное приложение HotActions Design с возможностью экспорта сцен из 3DS MAX и разработки на их основе проектов для работы с приложением HotActions (не HotActions Lite). Такая возможность позволяет освоить навыки экспорта виртуальных декораций из 3DS MAX и создания проектов на их основе для показа телевизионных передач. При дальнейшем апгрейде ПО HotActionsLite до HotActions и последующей работе с HotActions эти навыки могут быть полезными.

К началу 2. При получении

2.1. Где в виртуальной студии устанавливается тип выходного сигнала (YUV, S-Video(Y/C) или других)?
     В студиях, сконфигурированных для работы с аналоговыми или SDI-видеосигналами тип выходного сигнала выбирается в приложении конфигурирования сигналов FD300 Configuration. Для платы FD300, выбранной для вывода видеоизображения (как правило, это плата с наибольшим логическим индексом) в закладке Output устанавливается значение Y/C+CVBS в списке Analog Video Output для показа выходного видеоизображения в формате S-Video (или композитного). При показе компонентного сигнала в этом списке выбирается значение YUV+CVBS. Для студий, работающих в формате SDI-сигналов, аналоговый сигнал может быть показан в любом из этих форматов. При этом для вывода телевизионного сигнала в формате SDI важно, чтобы в списке Video Output Switching на этой же закладке было выбрано значение Internal -> Analog output + Digital bus. Более подробно эти настройки описаны в документе по настройке видео и звука.
     Вывод изображения в HD-студии производится через преобразователь DVM62, подключаемый ко второму выходу видеоадаптера. Поэтому тип выходного сигнала устанавливается прежде всего в настройках драйверов видеокарты, а далее выбирается нажатием одной из кнопок, расположенных на передней панели модуля DVM62. Более подробно настройка режимов в таких студиях описана в главе 11 руководства пользователя HotActions.
2.2. Где можно получить примеры проектов HotActions?
     Примеры стандартного комплекта поставки находятся на прилагаемом компакт-диске, обычно в папке VS_Samples. На этом же компакт-диске записаны и исходные сцены для примеров проектов, созданные в приложении 3DS MAX. Как правило, сцены в виде zip-файлов находятся в папке VS_Samples_Sources. Такие же папки с примерами проектов и исходными сценами 3DS MAX имеются на жёстком диске компьютера виртуальной студии.

К началу 3. Общие вопросы

3.1. Каковы отличительные особенности виртуальной студии Фокус по сравнению с виртуальными студиями других производителей?
     Принципиальным отличием виртуальной студии Фокус от других виртуальных студий является возможность получения высококачественного результата без использования дорогостоящих систем трекинга камеры и/или выстраивания декораций. Сигналы с изображениями актёров подаются в студию с неподвижных камер и далее эти изображения встраиваются в виртуальную сцену, созданную в каком-нибудь редакторском приложении трёхмерной графики (3DS MAX или MAYA), как обычные текстуры. Такие видеотекстуры могут быть наложены в Фокусе на любой трёхмерный объект сцены: плазменный экран, шар, автомобиль. Объект можно модифицировать произвольным образом - разбить, перевернуть, наклонить, что невозможно сделать в других виртуальных студиях, в которых изображение актёра обычно плоское и располагается между задними и передними планами. В таких студиях, чтобы отвести камеру далеко назад, необходимо проводить съёмки в большом павильоне. В студии Фокус можно сымитировать наезд и отъезд камеры с расстояния 1000 метров, проводя съёмки актёра в небольшом пространстве (2x3 метра) на синем или зелёном фоне.
3.2. Что такое HotActions?
Название основного приложения студии Фокус.
3.3. Можно ли самостоятельно провести обновление ПО?
     Служба технической поддержки может отказать в дальнейшей поддержке системы после самостоятельного изменения ПО (кроме обновления примеров). Поэтому обновления нужно производить с одобрения и в соответствии с рекомендациями службы технической поддержки.
3.4. Возникла необходимость в студии использовать дополнительные видеоисточники (видеокамеры). Кроме того, существует ли возможность замены в студии комплектующих компьютера на более новые (например, видеокарты)?
     Для работы с дополнительными видеоисточниками в студии нужно приобрести дополнительные платы захвата видеосигнала, если на материнской плате компьютера студии есть свободные PCI-слоты. При приобретении дополнительных плат FD300 они высылаются пользователю и установка их в студию по возможности производится пользователем самостоятельно, руководствуясь указаниями отдела технической поддержки.

     Обновление комплектующих студии проводится путём её полной замены. То есть, собирается новая студия, которая высылается пользователю, со временным регистрационным файлом. Через некоторое время (срок до месяца), когда работа с новой студией пользователем освоена, платы из прежней (FD300 и DVM) пользователь отсылает обратно и по их получении ему высылается новый бессрочный регистрационный файл для работы с новой студией.
     Как в случае необходимости приобретения плат FD300 (работе с дополнительными видеоисточниками), так и в случае требующегося обновления комплектующих студии, нужно отправлять запрос в отдел технической поддержки, указав свои реквизиты для выставления счёта на оплату.

К началу 4. Коннекторы и соединения

4.1. (раздел на стадии разработки)
(раздел на стадии разработки)

К началу 5. Свет, фон и настройки кеинга

5.1. При построении студии хотим использовать фон для хрома-кеинга, выкрасив пол и стены в синий либо зелёный цвет. Имеет ли значение, какую краску для этого нужно использовать?
     Да, это имеет большое значение. Обычная краска синего или зелёного цвета из хозяйственного магазина, скорее всего, не подойдёт. Она может давать блики (даже матовая краска), и иметь цвет, плохо подходящий для кеинга (даже если покрашенная ею поверхность визуально производит хорошее впечатление). Для кеинга выпускаются специализированные краски (например, производства компании Rosco и другие). Они могут показаться достаточно дорогими, но лучше один раз потратить больше денег и получать более качественный результат, чем постоянно тратить много времени на проблемы с настройкой кеинга из-за того, что краска плохая. Если фон не годится для кеинга, то никакие настройки в программе не помогут, и техническая поддержка может оказаться бессильной в оказании помощи при качественной его настройке.
     Перед нанесением краски необходимо нанести грунтовку. Компании, предлагающие специализированные краски для кеинга, чаще всего предлагают также приобрести и грунтовку, хотя в этом случае для грунтования специализированная грунтовка не требуется, можно использовать любую белого цвета. Краска поверх грунтовки наносится в несколько слоёв.
     Помимо краски, существует возможность использовать переносной складной фон или специальную ткань для кеинга, закреплённую, например, как штора, которую можно сдвигать (таким образом создаётся возможность быстро изменять цвет фона), а также специальный линолеум.
     Нужно иметь ввиду, что большое значение для хорошего кеинга играет качество освещения (света должно быть много и он должен быть распределён достаточно равномерно), а также качество видеосигнала, поступающее с видеокамеры.
5.2. Можете ли вы предложить какие-нибудь рекомендации по подбору света?
     Для профессиональной расстановки света в студии необходимо привлечь расчёты инженеров. Если говорить об общих рекомендациях, обычно используют два типа светильников, принципиально отличных друг от друга: люминисцентный равномерный свет для фона и прожектора для работы с актёром. Требуется максимально равномерно осветить весь фон (в том числе и пол), контровым (задним) светом убрать блики от фона на актёре. И не следует забывать про рисующий свет.
Примеры расстановки света можно посмотреть, например, здесь.
5.3. Почему при настройке кеинга актёра остаётся рябь по контуру?
     Чаще всего проблемы возникают, когда цвет "актёра" слишком близок к цвету "фона" (синего или зелёного задника). Это случается от плохого света, некачественного фона (например, слишком серого), неправильного подбора одежды... Но, кроме того, ещё и камера с её настройками может испортить даже хорошие условия на съёмочной площадке. Достаточно оставить включённым "усиление резкости изображения" (sharpening, ещё это называлось "автоматическое подчёркивание контуров"), например.
     Край маски (прозрачное/непрозрачное) очень чувствителен к шумам в исходном сигнале. Если цвета фона и актёра слишком близки, то кеинг становится своеобразным усилителем шумов - нет возможности (градаций), чтобы построить плавный цветовой переход от актёра к фону. Этот цвет - фон (прозрачный), а соседний - уже актёр (полностью непрозрачный)! В пределе, маска прозрачности вырождается из возможных 256 градаций серого в битовую чёрно-белую (0/255). И тогда малейший шум в исходном сигнале превращается в "дребезжание" маски.
     Вывод и рекомендация в том, что надо так настраивать и условия съёмки, и установки камер и обработки сигналов в тракте, чтобы цвета фона и цвета актёра различались как можно сильнее. Здесь полезно помнить и о том, что белое-серое-чёрное в цветах актёра присутствует практически всегда. При этом пятно цветов фона на гистограмме должно быть как можно меньшим (отсутствие градиентов и цветосмеси) и далёким от центра (Ч/Б цветов).

К началу 6. Данные и форматы

6.1. Как для видеофайла узнать количество кадров, размер кадра и кодек, с помощью которого было произведено сжатие?
     Данные можно найти в закладке Сводка диалога Свойства, вызванного из контекстного меню видеофайла, в режиме отображения Дополнительно. Значения Ширина, Высота, Частота кадров, Сжатие видео.

Более подробную информацию о форматах видеофайлов позволяют получить утилиты MediaInfo и GSpot.
6.2. В чём различие между проигрыванием видеофайлов через поток FILE_* и через поток MSDS_*?
     В режиме воспроизведения (порядке показа полей), заданном по умолчанию. При воспроизведении через FILE_* по умолчанию установлен режим проигрывания с показом первым нижнего поля (FORMAT LFF), тогда как при проигрывании через MSDS_* по умолчанию очерёдность показа полей определяется автоматически (FORMAT AUTOFIELDS).
Нужно учитывать, что при заданном режиме автоматического определения порядка показа полей для MPEG2 - файлов информация о порядке полей определяется из самого файла, в то время как для остальных типов файлов зависит от наличия информации в системе. При отсутствии такой информации видеофайл воспроизводится в режиме прогрессивной, а не чересстрочной развёртки. Поэтому при воспроизведении видеофайлов с чересстрочной развёрткой рекомендуется указывать режим показа полей в явном виде: LFF, UFF либо NOFIELDS.
6.3. При имитации наезда анимированной виртуальной камерой на плазменный монитор в сцене с проигрываемым на нём видеороликом видно, что изображение на мониторе размыто и края монитора мерцают. Можно ли как-нибудь улучшить качество изображения?
     Если проигрывать видеофайлы с чересстрочной развёрткой в маленьких масштабах, одно из полей файла не показывается и возникает эффект мерцания тонких граней (размером с пиксел). Уменьшить мерцание можно, используя механизм трилинейной фильтрации этого потока - так называемый mipmapping (FORMAT MIPMAP). Иначе говоря, рекомендуется использовать команды
RENDER.VIDEO.VideoStreamName.FORMAT = MIPMAP - включает механизм фильтрации изображения,
RENDER.MATERIAL.MaterialName.MIPMAPLODBIAS = fBias - определяет степень фильтрации.
Поскольку проблемы связаны с проигрываемым видеофайлом, то VideoStreamName при использовании команд следует заменить на MSDS_i или FILE_i, в зависимости от того, через какой поток воспроизводится файл, а MaterialName нужно заменить на название материала, в котором показывается видеопоток.
     При этом необходимо помнить, что использование такой фильтрации ведёт к размыванию изображения, особенно при больших коэффициентах, поэтому рекомендуется подбирать значение коэффициента экспериментально, так, чтобы изображение не мерцало, но при этом не было бы размытым.

К началу 7. Конфигурации и опции

7.1. Можно ли в виртуальной студии использовать внешние управляющие устройства? Например, исполнение команд по замыканию контактов этого устройства? Или, наоборот - управление Tally-сигналами рабочих камер из студии?
     В Главе 15 Руководства по использованию команд сценария описаны команды управления внешними устройствами (GPI). Само устройство передачи GPI-сигналов также можно приобрести у нашей компании (обратившись в отдел продаж по адресу sales@sl.iae.nsk.su), либо у поставщиков нашей продукции. На одной из страничек нашего сайта можно ознакомиться с более подробным описанием этого устройства Forward GPI Box. Цена его указана в прайс-листе.
     Forward GPI Box позволяет подключить 2 входных (управляющих) и 2 выходных (управляемых) сигнала через разъёмы BNC. Само устройство подсоединяется к системному блоку компьютера через USB-порт. При подключении от операционной системы поступает сообщение об обнаружении нового устройства, для которого требуется установить драйверы. Драйверы для Forward GPI Box можно найти на сайте производителя микросхемы этого устройства. После установки драйверов в списке портов компьютера (Ports(COM&LPT)) эмулируются 2 виртуальных COM-порта.
Эмулированными в системе COM-портами можно управлять с помощью команд, описанных в Главе 15 Руководства по использованию команд сценария. Чтобы команды поддерживались в приложении HotActions, нужно, чтобы был установлен специальный модуль управления GPI-командами VSGPIControl.dlf. Инсталлятор этого модуля входит в инсталляционный пакет студии, его можно найти на диске D:, в папке D:\Focus\VS_Install\VSGPIControl. Или, если его нет в комплекте поставки, нужно обратиться в отдел технической поддержки vrset@sl.iae.nsk.su.
7.2. Существует ли возможность в студии работать с видеосигналом с настроенным кеингом, не создавая для этого 3d-сцену? Например, если есть фон (графическое изображение или видеоролик) и на этот фон помещать откеенного актёра?
     В папке C:\Program Files\ForwardT Software\KeyConfig должны находиться программы FDKeyConfig.exe и FDKeyConfigPro.exe как раз для работы в таком формате. Интерфейс программ достаточно прост и осваивается легко. Руководство пользователя по работе с этими программами можно найти здесь. При возникновении каких-либо проблем при работе рекомендуется обратиться в отдел технической поддержки виртуальных студий.

К началу 8. Дизайн трехмерных сцен

8.1. Почему в 3DS MAX плоскость для актёра в сцене занимает то положение, которое нужно, а после экспорта в HotActions она наклонена в сторону? Что сделать, чтобы актёр экспортировался в виртуальную студию в нормальном положении?
     В 3D Studio Max направление локальных осей координат создаваемого объекта может не совпадать с направлением осей в HotActions. То есть, ось "Z" может быть направлена не вверх, а ось "Y" - не перпендикулярно задней части актёра. Чтобы это исправить, нужно выбрать в селекторе "Reference Coordinate System" состояние "Local" ,
потом, нажав на иконку "Hierarchy", нажать кнопку "Affect Pivot Only" и проверить, куда направлены оси "Pivot"'а плоcкости для актёра.


Если направления не совпадают с требуемыми, их нужно повернуть в необходимых направлениях. Это можно сделать, нажав кнопку "Align to World".
8.2. Влияет ли количество полигонов сцены, созданной в приложении 3DS MAX, на качество выходного изображения студии, и если влияет, то каково ограничение в их количестве, чтобы это изображение было устойчивым, непрерывным и качественным (без пропуска кадров)?
     Качество показа в студии определяется очень многими факторами создания как самой сцены в 3DS MAX, так и последующего создания проекта на её основе в HotActions. Если время расчёта и показа изображения в каком-нибудь кадре превысит время кадра (40 миллисекунд в формате PAL), изображение не будет показано совсем, то есть, кадр будет пропущен. Время расчёта и показа зависит не только и не столько от количества полигонов в сцене, а, в первую очередь, от количества видеопотоков (LIVE_* и MSDS_* (FILE_*)). Также возможность пропуска кадров может определяться, например, количеством источников света в сцене, количеством объектов, их текстурированием, глубинной сложностью сцены, её иерархической структурой, последовательностью команд в проекте, управляющих объектами сцены. Без учёта всех этих степеней влияния, для поставляемых в настоящее время в студии видеокарт GeForce 280, допустимым с очень большой степенью условности можно назвать количество полигонов порядка 1000000 для сцены с простыми нетекстурированными объектами без источников света.
     Для суммированного учёта всех перечисленных выше факторов при отладке показа рекомендуется включать индикатор загрузки кнопками Shift + ~. Показания индикатора описаны в главе 7 Руководства пользователя HotActions.
     Поскольку оптимизированное построение сцены и проекта - умение, требующее определённых навыков, со всеми вопросами по этому поводу рекомендуется обращаться в отдел технической поддержки vrset@sl.iae.nsk.su. Прислав или передав нам свой проект и/или 3DS MAX-сцену, Вы сможете получить подробные указания по поводу их оптимизации.
8.3. Можно ли средствами виртуальной студии сымитировать наезд камеры на актёра или отъезд от него, при условии, что камера, направленная на актёра, статичная?
     Любая сцена, созданная для виртуальной студии средствами программ трёхмерной графики (3DS MAX, например) должна содержать как минимум одну виртуальную камеру, через которую, собственно, и видится эта сцена в виртуальной студии. Если камера анимирована, то все попадающие в её поле зрения объекты автоматически масштабируются при проигрывании анимации в зависимости от расстояния до камеры. Живой актёр в виртуальной студии - это тоже объект-плоскость, на который помещается изображение с реальной статичной камеры, поэтому этот объект также масштабируется вместе с другими объектами сцены, что создает полную иллюзию движения камеры.
     Как подготовить в 3DS MAX соответствующие компоненты сцены, можно прочитать в Руководстве пользователя по созданию 3d-сцен. Команды управления объектами сцены: замещение текстуры изображением актёра, проигрывание анимации объектов и так далее, описаны в Руководстве пользователя по использованию команд сценария.
8.4. Каким образом работать в студии с ближним и с дальним планами в сцене?
     В виртуальной студии для съёмок актёров используются неподвижные камеры. Для показа поясной и ростовой фигур актёров, например, нужно использовать, соответственно, две камеры. Каждая из этих камер подключается к студии, и для каждого из изображений строятся таблицы кеинга. При помощи команд управления объектами сцены, описанными в Руководстве пользователя по использованию команд сценария, статичным камерам ставятся в соответствие виртуальные камеры. Эти камеры могут быть направлены на разные планы сцены. Переключение изображений с виртуальных камер в сцене с одновременным переключением изображений с реальных производится при помощи команд управления.
     Если имитируется наезд камеры на актёра (изображение статичной камеры) с помощью анимированной в 3DS MAX виртуальной камеры, то после такой имитации можно существенно повысить качество изображения актёра, используя режим 3D Overlay. Этот режим предназначен для крупных изображений актёра, близких к полноэкранным. Изображение с неподвижной реальной камеры встраивается в виртуальные декорации без изменения масштаба, "тексел-в-пиксел". При этом, соответственно, не происходит потери качества отображения. Режим 3D Overlay имеет ограничение: при его использовании недопустимо проигрывание анимации виртуальной камеры, направленной на актёра. Поэтому обычно сначала имитируется наезд камеры на актёра и только потом включается этот режим. В соответствующей последовательности происходит и обратное действие: сначала нужно отключить режим 3D Overlay и только потом имитировать отъезд камеры. Более подробно режим 3D Overlay описан в разделе 7.3 Руководства пользователя по использованию команд сценария.
8.5. Каких размеров должна быть видеотекстура для актёра, если планируется после имитации наезда камерой на актёра (анимация виртуальной камеры) включение режима 3D Overlay? Вероятно, из-за выключения масштабирования размеры актёра немного меняются, и при включении 3D Overlay происходит заметный скачок, актёр "прыгает"? Как это устранить?
     Для случая, если виртуальная камера в сцене для показа изображения актёра в режиме 3D Overlay стационарна (то есть, у неё отсутствует анимация), достаточно, чтобы прямоугольник с видеотекстурой примерно вписывался в угол зрения этой виртуальной камеры. Предполагается, что в этом случае 3D Overlay выключаться не будет и, соответственно, никаких скачков, вызванных переключением, не предвидится.
     В случае необходимости плавного включения режима 3D Overlay, например, при наезде анимированной виртуальной камеры на видеотекстуру с изображением актёра и последующего включения этого режима, необходимо точное вписывание прямоугольника c видеотекстурой в угол зрения виртуальной камеры. В таком случае при создании сцены в 3DS MAX нужно задать точное положение этой виртуальной камеры относительно прямоугольника с видеотекстурой. При этом должны выполняться следующие условия:
  1. Длины сторон прямоугольника должны точно соотноситься как 4:3 (16 : 9 для HD)
  2. ;
  3. Виртуальная камера должна быть точно направлена в центр прямоугольника перпендикулярно плоскости
  4. ;
  5. Расстояние от камеры до прямоугольника определяется углом зрения камеры (FOV) и размерами прямоугольника
  6. .
8.6. Как имитировать тени от объектов в сцене?
     Отрисовка теней от объектов в виртуальной студии не поддерживается, но при этом распределение освещённости, в том числе и тени, можно легко сымитировать, создав предварительно отдельные материалы с отрисованным на них нужным распределением освещения, а затем назначив эти материалы на объекты. В 3DS MAX (начиная с версии 5.0) внести распределение освещения в материал можно при помощи опции Render to texture, вызываемой из меню Rendering. При этом необходимо помнить, что размер видеопамяти графического ускорителя ограничен и его превышение может приводить к потере кадров. Поэтому производить такую имитацию нужно только для наиболее выигрышных в визуальном отношении текстур и не забывать оптимизировать размер этих текстур (раздел 2.1.10 Руководства пользователя по созданию 3d-сцен).
     Рекомендуемые настройки для отрисовываемых текстур представлены на рисунке ниже. Предлагается использовать автоматическую установку размеров текстур Use Automatic Map Size. Следует учитывать, что не во всех версиях 3DS MAX эта настройка работает корректно, и необходимо контролировать результат визуально, иногда корректируя размеры.

8.7. Как создать видимость отражений от объектов в сцене?
Существует 2 способа создать видимость отражений:
  1. создать зеркальные копии объектов сцены, поместив их под "полупрозрачный" пол, то есть, в качестве пола использовать плоскость с материалом с прозрачностью
  2. ;
  3. поместить копию объекта - его отражение - на отражающую поверхность, при этом назначив небольшую степень прозрачности Opacity материалу этой копии.
8.8. Из-за чего при отрисовке некоторых объектов в сцене видны дефекты - например, чёрные выступающие каёмки?
     Дефекты в виде чёрных каёмок могут наблюдаться, если в сцене присутствуют объекты с материалами с прозрачностью. Порядок сортировки объектов при их показе в сцене различен для объектов с прозрачностью (назначен материал с альфа-каналом) и объектов без прозрачности (материал без альфа-канала). Подробнее порядок сортировки разных объектов описан в разделе 3.6 Руководства по использованию команд сценария.
Расчёт сцены в каждом кадре проводится заново, с сортировкой по центрам сфер, охватывающих объекты. При движениях объектов в сцене, если объект с материалом с прозрачностью достаточно протяжённый, может оказаться, что центр сферы, охватывающей этот объект, будет располагаться за центром охватывающей сферы объекта с непрозрачным материалом. Таким образом, объект в некоторых кадрах может исчезать из видимости. Это исчезновение можно исправить назначением префикса в имени объекта (глава 8 Руководства по созданию 3D-сцен). Но такое решение проблемы недостаточно эффективно, потому что при этом всё равно могут наблюдаться разные артефакты изображения (тени, каёмки по контуру и так далее). Более эффективным способом корректно отображать протяжённые объекты с прозрачными материалами является их разбиение на менее протяжённые. Причём такое разбиение производится не произвольным образом, а методом подбора, наблюдая, чтобы объекты с прозрачностью показывались корректно.
В комплекте поставляемых примеров такое разбиение можно видеть в примере Interview, где плоскость пола FLOOR в сцене Interview.3d представлена мозаикой 6 сегментов Floor1a, Floor1b, Floor2, Floor3, Floor4, Floor5 с одинаковым материалом Floor.
8.9. Как можно было бы повысить реалистичность изображения в виртуальной студии, не увеличивая при этом загрузку графического процессора?
     Возможности графических ускорителей постоянно расширяются, тем не менее, качество рендеринга в режиме реального времени всегда будет существенно хуже, чем у медленных, но качественных рендеров. Этот недостаток можно преодолеть, если использовать возможности предварительного рендеринга анимации и(или) текстур трёхмерной сцены.
Простейшим (и довольно типичным) примером предварительного рендеринга анимации может быть "наезд" виртуальной камерой с общего плана трёхмерной модели ТВ студии на крупный план актёра. При этом весь пролёт камеры рендерится в анимационный ролик (без ограничений на использование любых источников света, типов материалов, эффектов, плагинов и т.п.), а в формат виртуальной студии экспортируется только сама камера (с анимацией) и прямоугольник, материал которого в виртуальной студии заменится на изображение актёра с реальной видеокамеры. В виртуальной студии предрендеренный ролик синхронно с пролётом виртуальной камеры проигрывается на материале фона сцены (BGND). В результате получается наезд на ”живого” актёра в качественно прорендеренном окружении.
  1. Cцена в 3DS MAX должна включать как элементы, которые будут использованы для рендеринга анимационного ролика, так и элементы, которые будут экспортироваться в формат виртуальной студии.
  2. Перед рендерингом анимационного ролика некоторые элементы, которые не будут использоваться при рендеринге, необходимо спрятать (например, видеобокс – прямоугольник, материал которого в виртуальной студии будет заменён на изображение актёра с реальной камеры).
  3. При экспорте в формат виртуальной студии необходимо выбрать (Select) все элементы, которые нужны только для работы в виртуальной студии и установить опцию ”Export Selected” на панели экспортёра.
  4. В виртуальной студии для вывода предрендеренного изображения нужно использовать ту же камеру, с которой это изображение рендерилось.
При рендеринге анимационного ролика можно использовать все возможности 3DS MAX, плагинов и внешних программ. Однако экспортируемая в виртуальную студию часть сцены не должна содержать материалы, процедурные процессы и т.п., которые не поддерживаются в виртуальной студии. Важным является следующее:
  1. Частота кадров в предрендеренном ролике должна быть:
    а) для PAL – 50 кадров в секунду;
    б) для NTSC – 60 кадров в секунду.
  2. Рекомендуется использовать кодек SoftLab-NSK MPEG2 I-Frames (MPEG2)
  3. .
  4. Формат выходного файла должен быть – «Progressive» (“Render to Fields” должен быть ВЫКЛЮЧЕН)
  5. .
Например, при рендеринге из 3DS MAX установки могут быть такими:


В инициирующем Action’е в проекте в студии должны присутствовать следующие команды:
:RENDER.VIDEO.MSDS_1.CREATE = 1
:RENDER.VIDEO.MSDS_1.DATA = “prerendered_animation.avi”
:RENDER.MATERIAL.BGND.SOURCE = MSDS_1

Эти команды, соответственно, содают MSDS-поток, указывают медиафайл (в данном случае ролик с предрендеренной анимацией – название условное), который будет через него проигрываться, и назначают этот поток фону сцены (материал фона с именем BGND создаётся автоматически при экспорте сцены в виртуальную студию). Вообще говоря, этот MSDS-поток не обязательно назначать именно фону, в некоторых редких случаях целесообразно назначить его на прямоугольник, расположенный перед виртуальной камерой. Прямоугольник должен быть привязан (linked) к виртуальной камере, а для материала прямоугольника желательно включить режим Overlay. В Action’е, в котором синхронно запускаются ролик с предрендеренной анимацией и анимация трёхмерной сцены, должны присутствовать установки текущей камеры, запуска потока и анимации сцены. Например,
:DATA.CURRENT.CAMERA = Camera01
:RENDER.VIDEO.MSDS_1.START = 1
:SYS.WAIT = ‘VIDEO.MSDS_1.START’
:TRACK.Intro.START = 0,180
Текущей камерой назначается та же, что использовалась при рендеринге анимационного ролика «prerendered_animation.avi».

     Начиная с выпуска версии VSHotActions_160 пример проекта с предрендеренной анимацией включен в пакет поставляемых примеров. Он находится в папке D:\Focus\VS_Samples\sunVSset_103. Исходная для него сцена 3DS MAX – в папке D:\Focus\VS_Samples_Sources (VSSource_sunVSset_SD_3d.zip и VSSource_sunVSset_SD_render.zip).

К началу 9. Язык сценариев

9.1. При переключении на одну из камер кнопкой в проекте изображение с камеры в кадре появляется не сразу, сначала мелькает статичное изображение, назначенное этому объекту-актёру в 3Ds Max. И только потом появляется изображение с камеры. Как устранить это мелькание?
      Вероятнее всего в Action'е кнопки, которой Вы переключаетесь, прописаны команды создания и форматирования видеопотока, например
RENDER.VIDEO.LIVE_1.CREATE = 1
RENDER.VIDEO.LIVE_1.FORMAT = ALPHA, CROP
Эти команды исполняются довольно длительное время и во время их исполнения в кадре и видна статичная фотография актёра. Такие команды рекомендуется исполнять не в обычных Action'ах, а в инициализирующем, который в проектах принято называть Init.
      Команду запуска видеопотока
RENDER.VIDEO.LIVE_1.START = 1
и замены материала на изображения с камеры
RENDER.MATERIAL.Actor1.SOURCE = LIVE_1
можно тоже исполнять в инициализирующем Action'е Init.
      Но иногда видеопоток с камеры требуется запустить в отдельном Action'е. В этом случае между этими командами нужно поставить команду ожидания запуска RENDER.VIDEO.LIVE_1.START = 1
SYS.WAIT = VIDEO.LIVE_1.START
RENDER.MATERIAL.Actor1.SOURCE = LIVE_1
чтобы дождаться, пока поток запустится и только потом показать изображение на материале. Иначе тоже может наблюдаться мелькание статичного изображения.
9.2. Включаем режим Overlay командой ACTION.START = "OVERLAY_ON" в Action'е переключения камеры на нужного актёра, но изображение с камеры по-прежнему остаётся размытым. Почему не работает включение Overlay?
      Режим Overlay включается командой
RENDER.MATERIAL."нужный материал для актёра".OVERLAY=1
Вероятнее всего в Action'е OVERLAY_ON, исполнение которого Вы запускаете командой ACTION.START = "OVERLAY_ON", прописана эта команда, только для названия материала совсем не того, который нужен Вам. Вам нужно включать режим Overlay для актёра непосредственно командой
RENDER.MATERIAL."нужный материал для актёра".OVERLAY=1
а не ACTION.START = "OVERLAY_ON".
Чтобы посмотреть название материала, для которого включается режим Overlay, в приложении с загруженным проектом нажимается кнопка Init All . Затем нажатием правой кнопки мыши нужно вызвать контекстное меню кнопки Action'а, в котором нужно включить режим Overlay, выбрать в этом меню команду Test и исполнить её.

Action при этом должен исполниться, то есть в окне вывода изображения Render Output должно появиться изображение с нужной камеры.
      После этого при наведении курсора мыши на изображение с камеры в окне Render Output, в левом нижнем углу приложения появляется название объекта - актёра и название материала в скобках. В примере, приведённом на рисунке, команда включения режима Overlay была бы RENDER.MATERIAL.actor1.OVERLAY = 1.
9.3. Какими командами включается Tally-индикатор рабочей видеокамеры, снимающей актёра?
     Сначала нужно создать сигнал в виртуальной студии с помощью команды GPI.OUT.Name.CREATE = GPI_OUT_DEVICE_NAME, например,
GPI.OUT.OUT1.CREATE = GPI_On_COM2_1_Output
в этой команде OUT1 - имя сигнала, которое мы определяем сами,
COM2 - имя порта, к которому подсоединено устройство, передающее сигнал на рабочую камеру,
1 - выход порта.
Команду создания можно исполнить или как отдельный Action, или в составе других команд в инициализирующем Action'е Init All. Далее передача выходного GPI-сигнала (включение Tally-индикатора) происходит исполнением команды GPI.OUT.Name.SET = 1, например,
GPI.OUT.OUT1.SET = 1
а выключение - командой GPI.OUT.Name.SET = 0, например,
GPI.OUT.OUT1.SET = 0
9.4. Какие команды использовать, чтобы производить какое-нибудь действие по включению GPI-сигнала от управляющего устройства в виртуальной студии?
     Сначала нужно создать сигнал в виртуальной студии с помощью команды GPI.IN.Name.CREATE = GPI_IN_DEVICE_NAME, например,
GPI.IN.IN1.CREATE = GPI_On_COM3_0_Input
в этой команде IN1 - имя сигнала, которое мы определяем сами,
COM3 - имя порта, к которому подсоединено управляющее устройство,
0 - вход порта.
Команду создания можно исполнить или как отдельный Action, или в составе других команд в инициализирующем Action'е Init All. Дальнейшее исполнение каких-нибудь действий в студии по включению входного GPI-сигнала производится через команды ожидания SYS.WAIT = Event (описание можно найти в главе 8 руководства по использованию команд сценария). Как описано в главе 15 руководства по использованию команд сценария, при включении входного сигнала в окне диагностических сообщений Debug Output появляется запись о включении SYS.EVENT = "GPI.IN.Name.1". При выключении сигнала появляется аналогичная запись. Текст этих записей и нужно использовать в командах ожидания. Текст команд может, например, выглядеть таким образом,
SYS.WAIT = "GPI.IN.IN1.1"
ACTION.START = "Green backdrop"
Action с этими командами нужно исполнить. Тогда в очереди исполнения появится команда ожидания сообщения SYS.EVENT = "GPI.IN.IN1.1", то есть включения входного сигнала с именем IN1. После того, как сигнал включится, начнётся исполнение следующей команды - ACTION.START = "Green backdrop", то есть, исполнение Action'а "Green backdrop".
Чтобы иметь возможность исполнять несколько разных действий на выбор при включении разных сигналов, нужно в виртуальной студии создавать несколько сигналов с разными именами и далее исполнять Action'ы с командами ожидания включения всех этих сигналов. Все они появятся в очереди исполнения и при включении какого-нибудь из сигналов начнёт исполняться то действие, которое запланировано. Например, создать 2 сигнала
GPI.IN.IN1.CREATE = GPI_On_COM3_0_Input
и
GPI.IN.IN2.CREATE = GPI_On_COM4_0_Input
и исполнить соответствующие Action'ы
SYS.WAIT = "GPI.IN.IN1.1"
ACTION.START = "Green backdrop"
и
SYS.WAIT = "GPI.IN.IN2.1"
ACTION.START = "Blue backdrop"
Тогда при включении первого сигнала IN1 начнёт исполняться Action "Green backdrop", а если будет включен второй - IN2 - исполнится Action "Blue backdrop".

Но исполнение таких команд вызывает нужное действие только при однократном включении сигнала. Чтобы действия производились по включениям сигнала и в дальнейшем, нужно снова исполнять команды ожидания включения сигналов, то есть ставить их в очередь на исполнение.
Но если добавить в команды Action'а вызов исполнения самого этого Action'а, его исполнение будет зацикленно и нужные действия будут исполняться всякий раз при включении GPI-сигналов от управляющих устройств. Например, если Action с командами
SYS.WAIT = "GPI.IN.IN1.1"
ACTION.START = "Green backdrop"
назвать Action1, то текст его команд должен быть следующим
SYS.WAIT = "GPI.IN.IN1.1"
ACTION.START = "Green backdrop"
SYS.WAIT = "ACTION.Green backdrop"
ACTION.START = "Action1"

Здесь SYS.WAIT = "ACTION.Green backdrop" - ожидание завершения исполнения Action'а "Green backdrop".

К началу 10. Hotset - интерфейс оператора

10.1. (раздел на стадии разработки)
(раздел на стадии разработки)

К началу 11. Качество входного и выходного видео

11.1. Почему выходное изображение студии размыто?
     Если изображение с камеры в кадре достаточно крупное, близко к полноэкранному,то чёткость изображения можно повысить, включив режим Overlay командой
RENDER.MATERIAL."нужный материал для актёра".OVERLAY=1. Более подробно о включении режима Overlay можно почитать в разделе 7.3 руководства по использованию команд сценария. Или в ответе на вопрос предыдущего раздела.
     Если установлена версия ПО 1.62 или выше и вывод изображения производится без использования DVM, в Action инициализации сцены рекомендуется добавить команду RENDER.FLICKER = fFlicker (команда не включена в систему подсказок) и поварьировать значение в правой части fFlicker, присвоив ему сперва 0.4 (RENDER.FLICKER = 0.4), а затем уменьшая или увеличивая. Таким образом можно устанавливать в сцене требуемую степень размывания изображения.
     Также нужно проверить настройки видеокарты. Для поставляемых в настоящее время в виртуальной студии видеокарт GeForce GTX 480 от NVIDIA в настройках Панели управления NVIDIA рекомендуется выбрать режим анизотропной фильтрации 4x и параметры сглаживания 32x.
     Для выбора этих режимов в левой части диалогового окна настроек следует перейти в закладку Управление параметрами 3D в разделе Параметры 3D.
В этой закладке в качестве параметра Анизотропной фильтрации рекомендуется выбрать 4x. В качестве Сглаживание - параметры - 32x, но, чтобы была возможность установить этот режим, необходимо предварительно в выпадающем списке "Функция" Сглаживание - режим выбрать Замещение настроек приложения.




Если выбрать для Сглаживание - режим настройку Замещение настроек приложения режим сглаживания будет устанавливаться при работе виртуальной студии в соответствии с указанным в NVIDIA (32x, как рекомендовано выше). Режим сглаживания, установленный настройками рендеринга в диалоге Render Options (описано в ответе на следующий вопрос), будет игнорироваться.
Однако если в настройках NVIDIA выбрать для Сглаживание - режим настройку Управление от приложения, тогда будет игнорироваться режим сглаживания, установленный настройками NVIDIA и результирующее изображение выхода виртуальной студии будет сглаживаться при отрисовке с использованием параметров, указанных в диалоге Render Options (см. ответ на следующий вопрос 11.2).
     Если изображение выводится через плату DVM, можно попробовать поварьировать значение параметра Flicker в настройках DVM (диалог Options (F10)) > кнопка Format группы Output > закладка DVM > раздел Output).
11.2. При имитации наездов и отъездов камерой на актёра (проигрывание анимации виртуальной камеры в сцене) края объектов становятся ступенчатыми. Можно ли их как-нибудь сгладить?
     Во-первых, можно проверить, что правильно указан режим сглаживания в настройках видеокарты. Как это сделать, описано в ответе на предыдущий вопрос.
Во-вторых, режим сглаживания можно настроить в диалоге Render Options, который вызывается нажатием клавиши F11 в приложении. Рекомендуемый режим сглаживания - значение 7 для Multisample Quality при выбранном 4_SAMPLES для Multisample Type.
(При этом для настройки NVIDIA Сглаживание - режим должно быть выбрано Управление от приложения - описание выше).


Подробней о настройках отрисовки можно почитать в главе 8 Руководства пользователя HotActions.
     Для устранения эффекта ступенчатых краёв объектов при движениях в сцене можно воспользоваться также командой RENDER.FLICKER = 0.4, исполнив её в инициализирующем Action'е. Команда отсутствует в системе подсказок и в Action её нужно внести, напечатав. Чтобы добиться нужной степени размытости изображения в сцене, начальное значение в правой части команды требуется поварьировать.
11.3. Как можно устранить или уменьшить эффект блика тонких объектов в сцене ("дребезжание")?
     Можно поварьировать значение параметра Flicker в настройках модуля DVM (диалог Options (F10)) > кнопка Format группы Output > закладка DVM > раздел Output). Но при этом следует помнить, что изменение этого параметра влияет также на степень размытости объектов и может неблагоприятно сказаться на том, как выглядят актёры в сцене.
     В версии ПО 1.62 или выше при отсутствии платы DVM для настройки фликкер-фильтра можно воспользоваться командой RENDER.FLICKER = fFlicker, исполнив её в инициализирующем Action'е (описано выше).

К началу 12. Настройка звука

12.1. (раздел на стадии разработки)
(раздел на стадии разработки)

К началу 13. Известные проблемы

13.1. Почему возникают проблемы при запуске примеров проектов HotActions?
     Обычно в папке с проектом, то есть в той же папке, где находится файл проекта *.vsp, есть также файл Readme.txt. В этом файле, как правило, указаны версии компонент ПО, с которыми проект должен работать без ошибок. Также могут быть описаны особенности аппаратной конфигурации студии, требуемые для работы данного проекта, например, количество подключенных входных видеопотоков (LIVE_* или плат FD300 в системе). Нужно убедиться, что программно-аппаратная конфигурация поставленной виртуальной студии соответствует указанной, то есть установлены все аппаратные и программные компоненты требуемых версий.

К началу 14. Прочие вопросы

14.1. Как создать возможность актёру при имитации съёмки его за виртуальным столом в сцене опираться об этот стол руками?
     Эту возможность следует продумывать перед созданием 3D-сцены в графическом редакторе (как правило, в 3DS MAX). Наиболее удобным является вариант, когда актёр будет при съёмке находиться за реальным столом, то есть актёр в 3D-сцене будет представлен человеком и столом. Для этого комплекса будет настраиваться кеинг и он будет встроен в виртуальные декорации. Вариант съёмки человека, сидящим за специально подготовленным модулем, выкрашенным специальной краской для кеинга, с последующим встраиванием его в сцене за виртуальный стол, также возможен. Встраивание в этом случае должно быть заранее продумано дизайнером, создающим сцену, с большей тщательностью и учётом всех особеннностей расположения актёра. Следует помнить ещё об одном важном моменте: если снимаемый человек при съёмке собирается брать в руки, например, лист белой бумаги, из-за отражённых на этом листе бликов фона, возможно, лист также будет восприниматься как фон и обрабатываться при кеинге. Вследствие этой обработки на листе, взятым в руки снимаемым человеком, возможно просвечивание виртуальных декораций 3D-сцены.