Профессиональная видеокарта Nvidia Quadro T400
Новая профессиональная видеокарта NVIDIA Quadro T400 построенная на архитектуре Turing выполнена в однослотовом варианте и пришла на смену видеокарте NVIDIA Quadro P400.
NVIDIA Quadro T400 это невероятная производительность 3D приложений в компактном корпусе, 384 CUDA ядер, 2Гбайта графической памяти GDDR6 и низкопрофильный форм-фактор шириной в один слот для установки в системы с самыми ограниченными пространственными и энергоресурсами (SFF).
Архитектура NVIDIA Turing профессиональной видеокарты NVIDIA T400 значительно улучшила производительность по сравнению с предыдущим поколением P400, по сравнению с основными 3D-приложениями, до 60% повысив графическую производительность. Сверхбыстрая технология графической памяти GDDR6 предыдущего поколения обеспечивает в 2,5 раза большую пропускную способность памяти.
Теперь вы можете одновременно работать с трёмя дисплеями и получить полную поддержку стандарта нового поколения DisplayPort 1.
Программное обеспечение NVIDIA RTX Desktop Manager, интуитивно понятное управление окнами, несколькими рабочими столами и управление приложениями для обеспечения работы с одним большим дисплеем (8K 7680×4320 60Гц) или несколькими дисплеями.
Все этапы профессионального рабочего процесса, от создания, редактирования и просмотра 2D- и 3D-моделей и видео до работы с несколькими приложениями на нескольких дисплеях, выигрывают от мощности, которую может обеспечить только дискретное решение GPU. Профессиональные графические процессоры начального уровня NVIDIA обеспечивают расширенные функции и производительность, значительно превосходящие возможности интегрированных графических решений (iGPU).
Специальный движок для кодирования NVENC для H.265 (HEVC) видео, независимый от 3D и вычислительного конвейера, обеспечивает более высокую производительность, чем в режиме реального времени, для транскодировки, редактирования видео и других приложений для кодирования.
Алгоритм сглаживания до 64x FSAA (128X со SLI) заметно снижает эффект зубчатости и неровность изображения, обеспечивая высокую реалистичность сцен.
Решения NVIDIA Quadro используют универсальные вычисления на GPU при помощи стандартных языков программирования, таких как C/C++ и Fortran, а также развивающихся API, таких как OpenCL и Direct Compute. Широкое применение возможностей CUDA позволяет ускорять такие техники, как трассировка лучей, обработка видео и изображений, а также вычисления в области динамики жидких тел.
Возможность работы с разрешением 16K x 16K при текстурировании и рендеринге для приложений, требующих самого высокого разрешения и качества визуализации изображений.
Поддержка включения движка Mercury Playback Engine GPU Acceleration (CUDA) в программе видеомонтажа Adobe Premiere Pro CC 2021.
Поддержка технологии аппаратного кодирования и декодирования в версии программы Adobe Premiere Pro CC 2021 (v15.0) и выше.
Графическая карта с поддержкой новейших версий OpenGL, DirectX, Vulkan и NVIDIA CUDA, гарантирующая совместимость с профессиональными приложениями.
Оцените высокую яркость и насыщенность цвета c коэффициентом контрастности 10 000:1 и возможностью подключения до трех дисплеев с разрешением 4K или одного дисплея 5K через разъем DisplayPort 1.4, а также удобную настройку с помощью NVIDIA nView. Создавайте и воспроизводите HDR-видео, используя кодеки H.264 и HEVC.
Видеокарта построена на 12нм FFN (FinFET NVIDIA) чипсете TU117-KA-A1. 4.7 миллиарда транзисторов. Площадь: 200 мм2.
384 CUDA процессоров, 16 текстурных блоков, 16 ROP.
Ядро и шейдерные блоки работают на частоте: 1070МГц и 1425МГц (Boost).
Производительность: 1,094 Тфлопс (одинарная точность). FP64: 1/32 FP32.
2ГБ GDDR6 памяти работают на частоте 10Gbps. 64-битная шина памяти. Полоса пропускания памяти: 80 Гб/с.
Интерфейс: PCI Express 3.0 x16.
Порты: 3х Mini DisplayPort 1.4a.
Максимальное разрешение DisplayPort 1.4a: 7680×4320@60Гц. Одновременная поддержка трёх мониторов с разрешением 4096×2160@60Hz и поддержкой HDR (SMPTE 2084/2086, BT.2020).
Поддержка технологии NVIDIA 3D Vision и DeepColor.
Поддержка: 64x anti-aliasing.
Поддержка: DirectX 12 Ultimate + Shader Model 5.1, DirectCompute 5.0, Vulkan 1.0. Оптимизация и поддержка OpenGL 4.6.
Нет поддержки NVIDIA SLI.
Поддержка API: CUDA C, CUDA C++, OpenCL, Java, Python, и Fortran.
Нет поддержки технологии NVIDIA GPUDirect for Video и VR Ready.
Поддержка HDCP 2.2.
Встроенный блок видеообработки NVIDIA NVENC 3. 0. 2x H.264 и HEVC кодера и 1x NVDEC Engine.
Поддержка операционных систем: Microsoft Windows 10, Red Hat Enterprise Linux 7.x, SUSE Linux Enterprise Desktop 15.x, OpenSuse 15, Fedora 31, Ubuntu 18.04, FreeBSD 11.x, Solaris 11.
Уровень TDP: 30 Вт.
Поддержка стандарта EnergyStar.
Требования к блоку питания: 300Вт. Без дополнительных силовых разъёмов питания PCIe.
Сертификационный стандарт: WHQL / ISO9241 / EU RoHS / JIG / REACH / HF / WEEE / RCM / BSMI / CE / FCC / ICES / KC / cUL, UL / VCCI.
Высота 156.0х68.9х18 мм, один слот. Вес: 129 грамм.
3 года гарантии.
Цена: $199.
Номер модели: ELSA EQT400-2GER, PNY VCNT400-PB.
» 13 советов по увеличению скорости рендера в After Effects
Рендеринг — это не самый приятный, но неизбежный этап процесса создания видеографики. Однако существует несколько простых шагов, следуя которым можно рендерить настолько быстро, насколько это возможно.
1. Подберите правильную видеокарту
After Effects — программа, которая сильно загружает видеокарту. Поэтому для наиболее эффективной работы с программой Adobe рекомендует следующие видеокарты. В частности, Adobe рекомендует пользоваться некоторыми картами от GeForce, Quadro и Tesla. Вы можете ознакомиться с полным списком наименований на сайте Adobe в разделе системные требования.
2. Обновите оперативную память
Adobe рекомендует использовать по крайней мере 4Гб оперативной памяти. Для профессионального использования пользователи AE отдают предпочтение памяти в 32Гб и более.
Использование такого вида диска не только позволит вам увеличить скорость рендера, но и повлияет на скорость работы компьютера в целом. Если вы приобрели внешний или внутренний жесткий диск по цене менее чем 100$ — пора его обновить. С монолитным жестким диском After Effects начнет быстрее загружать проекты, работать с оперативной памятью — что в совокупности ведет к снижению времени на рендер.
4. Используйте два жестких диска
Когда вы рендерите изображение на том же диске, где храните свой проект, диск вынужден выполнять одновременно две функции: считывать и записывать информацию. Поэтому рендер проходит в два раза дольше по времени. Вместо этого попробуйте сохранять проект и исходники на одном диске, а рендерить финальный вариант на другом.
5. Задайте многопроцессорный режим
По умолчанию многопроцессорный режим не включен в AE — вы должны включить его вручную. Для этого следуйте схеме: After Effects>Preferences>Memory & Multiprocessing. На экране откроется меню:
Поставьте галочку напротив ‘Render Multiple Frames Simultaneously’ и далее задайте настройки по своему усмотрению.
6. Сократите использование прекомпозиции
Прекомпоз эффективен при создании удобного и систематизированного рабочего процесса в AE. Однако он может стать помехой при увеличении скорости рендера, поскольку использует пиксельную информацию всех слоев и помещает ее в композицию, перед тем как начать сам рендер.
7. Уберите все лишние элементы с композиции
Если вы не видите какие-то слои в своей композиции, это еще не значит, что они не будут рендериться. Поэтому перед тем, как отправить композицию на рендер, удостоверьтесь, что вырезаны все ненужные слои.
8. Отключите функцию Ray-Traced 3D
Слои Ray-Traced 3D стали одной из самых крутых функций в последней версии After Effects CS6 — наконец-то появился способ создания 3D-моделей прямо в AE. Однако эта новинка недолго вызывала восхищение пользователей, так как практическое применение данной функции требует высоких временных затрат. Поэтому удостоверьтесь, что композиция настроена на Classic 3D вместо Ray-Traced 3D, прежде чем начать рендер. Иначе вы станете свидетелем, того что процесс рендинга займет в два раза больше времени.
9. Закройте другие программы
Об этом можно легко забыть, но все-таки следует закрыть иные программы, запущенные на вашем компьютере. Это позволит освободить место на центральном процессоре.
10. Выбирайте правильные кодеки
Такие кодеки, как MOV, требуют больше времени на рендер, чем их более сжатые версии H.264 или ProRes. Главный вопрос — где вы планируете в дальнейшем использовать это видео, будет ли оно транслироваться на TV или на странице в интернете. Если оно предназначено для online-просмотра, то наверняка оно будет сжато при загрузке. Поэтому, может, даже не стоит пытаться экспортировать из программы высококачественное видео изначально?
11. Отключите функции Motion Blur, Depth of Field, и 3D, если вы их не используете
Время на рендер может тратиться меньше, если вы отключаете те функции, которые не используете в работе. Например, если вам не потребуется функция Motion Blur, отключите эту опцию. Если вы используете 3D-камеру, потребуется ли вам опция глубины изображения (depth of field) или будет достаточно 2D-изображения? Может быть, стоит симулировать 3D за счет уменьшения масштаба объектов и их переноса в 2D-пространство?
12. Будьте избирательны с эффектами
Не все эффекты одинаковы с технической точки зрения. Одни занимают больше времени на рендер, другие меньше. Поэтому тщательно выбирайте эффекты, с которыми будете работать. Большинство эффектов оптимизированы для рендера через множественные треды (потоки) на компьютерном процессоре, но есть и такие, которые проходят только через один тред — они и являются самыми время затратными.
Список таких эффектов:
• Auto Color
• Auto Contrast
• Auto Levels
• Cartoon
• Lens Blur
• Particle Playground
• Shadow/Highlight
13. Adobe каждый раз пытается выпустить более быструю и оптимальную версию программы AE
Старайтесь изначально устанавливать самую последнюю версию. Если раньше приобретение каждого Creative Suite требовало значительных финансовых затрат, то сейчас Creative Cloud находится в общем доступе, куда выкладываются все последние обновления.
Бонус: используйте Media Encoder для экспортирования композиций
Самая большая проблема в процессе рендеринга — невозможность в это же время работать в программе. Но и эта проблема была решена, благодаря Adobe Media Encoder, который позволяет работать над другими проектами, в то время как идет рендер.
Источник: cinemotionlab.com
Графические решения NVIDIA QUADRO
Графические процессоры NVIDIA Quadro спроектированы для профессиональных рабочих станций и обеспечивают высокой производительностью более 200 профессиональных приложений в широком спектре отраслей, включая производство, проектирование и конструирование, масс-медиа и развлечения, науку и энергетику. Профессионалы доверяют решениям Quadro рабочие процессы в таких распространенных приложениях, как Adobe Creative Cloud, Avid Media Composer, Autodesk Inventor, Dassault Systemes CATIA и SolidWorks, Siemens NX, PTC Creo и многих других. Подробнее о профессиональных приложениях, для которых решения QUADRO сертифицированы и рекомендованы можно узнать на сайте NVIDIA или на сайте PNY, производителя видеокарт с процессором NVIDIA QUADRO, используемых в рабочих станциях Team Workstation.
Аппаратная совместимость и стабильность работы обеспечена поддержкой последних стандартов OpenGL, DirectX, OpenCL , NVIDIA CUDA и взаимодействием на их основе с разработчиками программного обеспечения.
Широкие возможности и качество работы графических рабочих станций обеспечиваются рядом технологий NVIDIA, как то, NVIDIa 3D Vision, G-Sync, NVLINK, PHYSX многих других. В частности, технология NVIDIA мульти-GPU позволяет успешно масштабировать производительность за счет использования в одной системе комбинации из нескольких графических карт NVIDIA QUADRO или NVIDIA TESLA.
Повышение производительности приложений можно проиллюстрировать на примере популярных программ:
Adobe Premiere Pro CC
Мощный движок Adobe Mercury Playback Engine, разработанный совместно компаниями Adobe и NVIDIA ускоряет финальный рендеринг в 18 раз.
Adobe After Effects CC
Метод трассировки лучей ускоряет создание реалистичных 3D фигур до 23 раз по сравнению с CPU.
Autodesk 3ds Max
Фотореализм в 3ds Max повышается благодаря NVIDIA IRAY для интерактивного рендеринга. Материалы и свет взаимодействуют, как в реальном физическом мире. Ускорение рендеринга продемонстрировано в следующей таблице.
Современный модельный ряд графических решений NVIDIA QUADRO построен на архитектуре Kepler и включает перечень карт для различного бюджета, производительности и набора интерфейсов.
NVIDIA QUADRO K420
Однослотовая низкопрофильная карта с 1 Гб оперативной памяти DDR3 с поддержкой до четырех дисплеев с DisplayPort 1.2 с ультра-высокими разрешениями 3840×2160 @ 60 Гц при 30-битном цвете.
NVIDIA QUADRO K620
Однослотовая низкопрофильная карта с 2 Гб оперативной памяти DDR3 с поддержкой до четырех дисплеев с DisplayPort 1.2 с ультра-высокими разрешениями 3840×2160 @ 60 Гц при 30-битном цвете.
NVIDIA QUADRO K2200
Однослотовая полнопрофильная карта с 4 Гб оперативной памяти GDDR5 с поддержкой до четырех дисплеев с DisplayPort 1.2 с ультра-высокими разрешениями 3840×2160 @ 60 Гц при 30-битном цвете.
NVIDIA QUADRO K4200
Однослотовая полнопрофильная карта с 4 Гб оперативной памяти GDDR5 с поддержкой до четырех дисплеев с DisplayPort 1.2 с ультра-высокими разрешениями 3840×2160 @ 60 Гц при 30-битном цвете. Возможна синхронизация нескольких дисплеев в системах с платой Quadro Sync и ускорение передачи данных с помощью GPUDirect ™.
NVIDIA QUADRO K5200
Двухслотовая полнопрофильная карта на GPU с 2304 ядрами и 8 Гб оперативной памяти GDDR5. Поддерживает до четырех дисплеев с DisplayPort 1.2 с ультра-высокими разрешениями 4096 х 2160 @ 60 Гц при 30-битном цвете. Возможна синхронизация нескольких дисплеев в системах с платой Quadro Sync и ускорение передачи данных с помощью GPUDirect ™.
NVIDIA QUADRO K6000
Двухслотовая полнопрофильная карта на GPU с 2880 ядрами и 12 Гб оперативной памяти GDDR5. Поддерживает до четырех дисплеев с DisplayPort 1.2 с ультра-высокими разрешениями 4096 х 2160 @ 60 Гц при 30-битном цвете. Возможна синхронизация нескольких дисплеев в системах с платой Quadro Sync и ускорение передачи данных с помощью GPUDirect ™.
NVIDIA QUADRO M6000
Новинка на архитектуре Maxwell. Двухслотовая полнопрофильная карта на GPU с 3072 ядрами и 12 Гб оперативной памяти GDDR5. Поддерживает до четырех дисплеев с DisplayPort 1.2 с ультра-высокими разрешениями 4096 х 2160 @ 60 Гц при 30-битном цвете. Возможна синхронизация нескольких дисплеев в системах с платой Quadro Sync и ускорение передачи данных с помощью GPUDirect ™.
Prestige P100 и PS341WUК: компьютерная система, как творческая студия
В этой статье я расскажу, как я работаю, и как выбрать правильную компьютерную систему для использования в качестве креативной студии.
Мои друзья часто спрашивают, не геймер ли я. Дело в том, что мои работы – нечто, что они могут увидеть лишь в каком-то загадочном виртуальном мире. На самом деле, я никогда не был серьезным геймером. Обычно я играю лишь в какие-то стратегии или спортивные симуляторы, а не в популярные многопользовательские «ролевки» или AAA-проекты. Впрочем, лет 10 назад я осознал, что мультимедийный контент будет привлекать всеобщее внимание, когда покупал через интернет какие-то дополнения или игрушечные фигурки, посвященные таким играм. Социальные сети на тот момент были не особо удобными и не такими многофункциональными, как нынешние Instagram, Twitter и Facebook, что не помешало мне проводить необходимый анализ перед покупкой. И да, креативный контент виделся чрезвычайно важным для меня. Именно так я погрузился в загадочный мир, который стал моей профессией.
В целом, мой творческий процесс выглядит следующим образом. Мне приходит в голову какая-то мысль или фантазия, затем я выражаю ее в виде рисунка, обрабатываю получившееся изображение, делаю на его основе анимационный ролик и получаю финальный результат в виде видеофайла или публикации на веб-сайте. Разумеется, хуже всего, когда воспроизведение видео идет с задержками, когда элементы на экране не двигаются плавно, особенно если приходится работать в условиях ограниченного времени. Поэтому в данной статье я расскажу вам, как выбрать правильное компьютерное оборудование, чтобы работать над своими творческими проектами более продуктивно.
Базовые приложения для творчества: Photoshop и Illustrator
Рисование или ретуширование изображений – основа всей работы. Ничего не может быть хуже, чем «рваное» перемещение элементов или слоев в приложении Photoshop или Illustrator (при этом изображение из сотен элементов еще считается довольно простым). Графическая работа похожа на паззл. Например, постер размером 420 х 594 мм и разрешением 300 точек на дюйм будет содержать 10 слоев (или 10 групп), включая освещение, перспективу, тени и даже эффекты кистей. Все это – необходимый минимум для профессионала. И для обработки всего этого в Illustrator или Photoshop требуется подходящий процессор, дополненный необходимым объемом оперативной памяти.На данный момент Photoshop и Illustrator не особо эффективно используют процессоры с большим числом ядер. Иными словами, они ориентированы на однопоточность и лишь для некоторых операций задействуют сразу несколько ядер (не более восьми). В результате, некоторые процессоры X-серии оказываются в этих приложениях даже немного медленнее, чем Core i9-9900K, установленный в компьютере MSI Prestige P100. Для большинства сценариев использования Photoshop и Illustrator подойдет i9-9900K или даже i7-9700. Помимо процессора, для их быстрой работы нужен большой объем памяти. Я рекомендую 16 гигабайт для файлов размером около 500 МБ и 32 ГБ для файлов менее 1 ГБ. Размер файла указывается в нижнем левом углу окна приложения, когда тот открыт. Вы увидите там два числа, например «17.6M/497.1M». Правое (большее) число включает в себя все слои, поэтому именно оно наиболее точно указывает, сколько оперативной памяти следует установить в компьютер для комфортной работы с данным файлом.
Изображение оживает – в After Effects
Плавное воспроизведение в After Effects зависит от объема доступной памяти, особенно когда мы создали множество элементов в других программах, например рисунки в Illustrator, и пришло время задать начальные и конечные точки с помощью ключевых кадров. Кроме того, качество воспроизведения зависит от длины, разрешения и сложности проекта. Аниматор создает «скелет» модели и оживляет ее, перемещая отдельные части, однако «рваное» воспроизведение может испортить весь эффект. Для такой работы не обязательно иметь хорошие навыки рисования, потому что можно пробовать снова и снова, и возвращаться назад, если результат не нравится. И именно поэтому плавное воспроизведение очень важно для аниматора, будь то двухмерная или трехмерная анимация.
При наличии большого объема памяти в ней может храниться больше кадров для предварительного просмотра (и, соответственно, меньше кадров нужно будет отрисовывать заново). Для не особо сложных проектов я рекомендую не менее 32 ГБ памяти, но 64 ГБ будет еще лучше, потому что для создания слоев в After Effects мы обычно применяем другие приложения. Никто не хочет увидеть сообщение «Недостаточно памяти», особенно после часа работы. Лет 5-6 назад приложение After Effects с большой эффективностью использовало многоядерные процессоры, однако сейчас вместо множества ядер лучше иметь процессор с высокой частотой. Исключение – рендерер Cinema 4D, который будет работать быстрее на многоядерном процессоре. В целом, для большинства сценариев работы в After Effects отличным выбором будет Core i9-9900K или даже i7-9700K.
Далее, очень важно иметь хорошую видеокарту с достаточным объемом видеопамяти, не менее 4 гигабайт. Поскольку в компьютере MSI Prestige P100 имеется как минимум 6 ГБ видеопамяти, он работает в After Effects очень быстро, обгоняя многих конкурентов. Последняя версия After Effects позволяет использовать движок рендеринга Mercury, поддерживающий аппаратное ускорение с помощью графического процессора, для визуальных эффектов сторонних разработчиков, поэтому я рекомендую активировать параметр «Mercury GPU Acceleration (CUDA)», который находится в разделе «Video Rendering and Effects» настроек проекта в After Effects. Это сократит время рендеринга, а воспроизведение вашего ролика будет более плавным.
Нелинейный видеомонтаж: для профессиональных режиссеров и любителей
В своей работе я обычно использую кодек H.264 AVC (также называемый MPEG-4), который является промышленным стандартом для записи, сжатия и распространения цифрового видеоконтента. Также иногда я импортирую и экспортирую материалы в формате H. 265 HEVC, который сжимает данные более эффективно, что означает уменьшенный размер файла, а значит и меньшие требования к пропускной способности канала при его онлайн-трансляции.
Неважно, используете ли вы Premiere Pro, Vegas Pro или Power Director, все они поддерживают аппаратное ускорение для кодирования в форматах H.264 и H.265 (HEVC) посредством технологии Intel Quick Sync. Это позволяет быстрее преобразовывать видеоматериалы в нужный вид, и поэтому процессоры i9-9900(K) и i7-9700(K) будут отличным выбором для данных приложений.
Редактирование и публикация контента через смартфон
Я часто читаю и публикую интересный контент в соцсетях Instagram и Facebook, когда еду в автобусе или метро. Порой я просто снимаю на видео свои ботинки во время прогулки, немного обрабатываю цвет в панели Lumetri и подписываю парой слов – и все это на смартфоне. Поэтому позвольте представить вам удобный инструмент – Premier Rush. Для его использования не нужно быть экспертом или иметь кинематографического качества материал. Premiere Rush предлагает функции приложений Premiere Pro и After Effects, а также доступ к коллекции ресурсов Adobe Stock, что позволяет мне легко и быстро редактировать свои работы. Я даже могу настраивать музыку и звуковые эффекты с помощью функции автоматической регулировки громкости. Все редактирование осуществляется на одном устройстве, будь то смартфон или компьютер, а публикация в интернете выполняется напрямую. Приложение Rush доступно в базовой версии бесплатно, но я пользуюсь версией Rush Single App, которая дополнена облачным хранилищем на 100 ГБ и возможностью неограниченного экспорта работ. Кстати, сейчас идет специальная акция «Get Rush, Get Unleashed», так что может самое время попробовать Rush?
Важен ли монитор? Разумеется!
Хотя контент можно редактировать и на смартфоне, хороший дисплей с широким соотношением сторон 21:9 может серьезно повлиять на то, как вы работаете или играете в игры на своем компьютере. Раньше я использовал пару 24-дюймовых IPS-дисплеев, и это помогало повысить продуктивность. Чем больше экранного пространства, тем лучше, однако не все так просто. Учитывая расстояние между монитором и глазами, самым комфортным размером экрана является 34”, причем разрешение должно быть не меньше, чем WQHD. В таком случае я могу заменить пару 24-дюймовых моделей одним монитором и сэкономить место на рабочем столе.
Когда я работаю с видео, у меня всегда очень длинная «шкала времени» с бессчетным числом ключевых кадров. Очень важно, чтобы я мог легко и точно перемещать эти кадры или слои, будь то для видеоматериала или изображения из Photoshop или Illustrator. Монитор MSI Prestige PS341WU обладает разрешением 5120 х 2160 пикселей (WUHD), поэтому я могу видеть и воспроизводить полную шкалу времени со всеми ключевыми кадрами. Речь идет не только о размере экрана, но и о разрешении: оно позволяет мне работать в окне формата 4K и параллельно просматривать контент в другом окне. Это настолько удобно, что я уже не смогу вернуться к своему обычному монитору.
Для моей работы также критически важен цвет, и я обычно пользовался аппаратным калибратором для настройки цветопередачи, особенно когда применял цветовые фильтры для сложных изображений, чтобы подчеркнуть оттенки цвета, освещение, перспективу, тени или даже эффекты кистей. Все это проявляется на мониторе, способном обеспечить нужную точность цветопередачи и широкий цветовой охват. Цветовой охват модели PS341WU составляет 100% sRGB и 98% Display P3, поэтому весь мой видеоматериал воспроизводится во всей красе. Этот монитор выводит цвета такими же, какими я их вижу на своей камере. Точность зеленых и красных оттенков, детализация теней, насыщенность и яркость – все это помогает мне при редактировании материала во время постобработки.
Компьютер для монтажа 4K видео. Монтаж в разрешении 4К.
Этот компьютер прослужил мне 2,5 года. На чем я монтирую и на что снимаю сейчас.
Выбор комплектующих и сборка.
Итоговая конфигурация.
Тестирование производительности в Adobe Premiere Pro.
Многопоточное воспроизведение 4K видео.
Работа с эффектами в реальном времени.
Узкие места.
Заключение.
Предисловие
4K видео уже даже не на пороге, а зашло в дом. В большинстве случаев только к тем, кто вообще понимает, что значат эти 2 символа. Энтузиасты покупали Gh5, стоят в очереди за Sony A7s II, летают на DJI Phantom 3 и Inspire, а потом тратят десятки часов, чтобы выгрузить на YouTube ролик с разрешением 3840×2160. И мне тоже приходится это делать. И хочется делать это быстро, насколько это возможно и насколько позволяет мой кошелек.
Сам по себе монтаж видео в разрешении 4K возможен на любом i7 последних 3 лет, основную нагрузку берет на себя видеокарта. Но что делать, если вам нужно использовать фильтры или плагины, которые не всегда рендерятся силами GPU? Правильно — собирать новую систему, желательно самое мощное, что есть на рынке. 4K видео с наложенными Warp Stabilizer, Magic Bullet Looks или Film Convert, а уж тем-более старина Noise Reduction от Neat Video поставит на колени любой компьютер. Но мы будем сопротивляться и соберем мощный системник для монтажа 4K видео образца конца 2015 года. Цены я тут писать не буду, если захотите — посмотрите сами.
Выбор комплектующих и сборка
В общем, я решил не мелочиться, а сразу собрать хорошую систему, на которой я планирую работать ближайшие 3-4 года. На текущий момент самой перспективной производительной платформой Intel является 2011-3. Под нее на текущий момент существуют всего 3 десктопных процессора Haswell-E (серверные Xeon не рассматриваем). Это парочка шестиядерных Intel Core i7-5820K и 5930K, а также 8-ядерный Intel Core i7-5960X. Разница между 5820K и 5930K в 200 МГц тактовой частоты и в дополнительных 12 линиях PCI-E. Учитывая разницу между ними в 250$, данный бонус выглядит весьма сомнительно. Тем более, если учесть, что разницы между парой видеокарт, работающий в режиме 16+16 и 16+8 нет никакой. Я же вообще не планирую устанавливать несколько видеокарт в одну систему.
Что касается 8-ядерного монстра Core i7-5960X, то стоит он в 3 раза дороже, чем i7-5820K, при этом в Abobe Premiere и After Effects СС 2015 демонстрирует прирост производительности на уровне 7-10%. На всей текущей линейке Haswell-E разблокирован множитель, так что данный прирост можно достичь небольшим разгоном шестиядерных моделей.
В общем, я пришел к выводу, что оптимальным высокопроизводительным процессором на текущий момент является 6-ядерный Intel Core i7-5820K. Такого же мнения придерживаются большинство специализированных сайтов типа THG и Overclockers. Кстати, недавно анонсированная линейка процессоров Broadwell-E, которая предположительно будет включать и 10-ядерный Core i7-6950X также будет основана на сокете 2011-3, так что с апгрейдом в ближайшие 3-4 года проблем не возникнет.
Материнских плат под сокет 2011-3 достаточно много, в основном благодаря Asus. Все они максимально хорошо оснащены и обладают одинаковым базовым функционалом, т.к. построены на системной логике Intel X-99. Я остановился на новой MSI X99A SLI PLUS. Она одна из немногих имеет на борту два свежих USB 3.1, при этом в ней убраны некоторые «бонусы» из-за которых некоторые модели обходятся дороже .
Материнки от Gigabyte на ранних этапах (и не только) имели много проблем с BIOS, поэтому их лучше вообще проигнорировать. В линейке ASUS очень много моделей, более дорогие версии имеют по 2 Lan, встроенный Wi-Fi модуль, наличие сразу нескольких разъемов M2 и экранирование звукового тракта (что для меня бесполезно, т.к. я использую Creative X-Fi) но принципиально в плане качества элементной базы и быстродействия — все эти материнские платы на одинаковом уровне.
С выбором системы охлаждения пришлось повозиться. TDP этих процессоров составляет 140 Ватт, реальное потребление около 120 Ватт, поэтому и кулер пришлось искать соответствующий. В итоге, прочитав десятки обзоров и сотни отзывов я определился с двумя подходящими вариантами: Thermalright Macho Rev.A и Noctua NH-U14S. Выбирать не пришлось, т.к. Noctua могли привезти не раньше, чем через месяц.
Для монтажа 4K видео (тем более, если вы плотно работаете в After Effects) вам нужно много памяти. Я установил 32 Гб, заняв все 8 слотов. Если бы в продаже в одном месте было 4 одинаковых модуля по 8 Гб я бы, разумеется, купил их. Но с доступностью таких планок DDR4 даже в Москве есть проблемы. Ознакомившись с обзорами стало понятно, что переплачивать 100% стоимости за маркетинговую фишку — «разогнанную память» смысла нет никакого, т.к. разницы в производительности в реальных приложениях нет вообще. А если так уж хочется разогнать — так это можно сделать самостоятельно. Тем не менее, мне досталось 2 комплекта по 16ГБ G.Skill, работающих на частоте 2400 МГц (с небольшим заводским разгоном и вшитым профилем XMP), благо на цене это никак не отразилось, что еще раз говорит о том, что накрутка за разгон — чистый маркетинг.
Поскольку современные версии видеоредакторов для расчета эффектов применяют мощности видеокарт, то хорошая видеокарта вам также потребуется. AMD Radeon обладают более высокой чистой математической мощностью, но в среде Windows для Adobe Premiere есть несколько визуальных фильтров, которые работают только на картах от nVidia. Вот эти парни проделывают большую работу, постоянно тестируя разные видеокарты с разными плагинами, рекомендую почитать их.
Главное, что нужно помнить, что если вы монтируете видео в разрешении 4K, то объем видеопамяти для вас будет так же важен, как и графическая производительность видеоядра. Я приобрел Gigabyte nVidia GeForce 960 GTX с 4ГБ памяти под свои задачи, Radeon R9 380 обеспечивают сходную производительность, но потребляет значительно больше энергии. Просадок из-за 128-битной шины памяти 960 GTX еще не показал ни один техно-сайт, видимо, потому что эти видеокарты все равно не потянут игры в разрешении 4K, а для игр в FullHD разницы нет. Я в игры вообще не играю, так что мне разницы нет тем более.
Качественный блок питания очень важен, но глупо выбирать его по принципу «чем больше, тем лучше». Реальное потребление подобной системы на пике мощности — 450 Ватт, поэтому 600-Ваттного блока питания будет более, чем достаточно. Aerocool серии KCAS — качественные блоки питания с сертификатом Bronze+ по разумным ценам, что не раз подтверждалось многочисленными тестами всей линейки на сайтах с заслуженной репутацией. Если будете выбирать себе блок питания — смотрите, чтобы версия ATX была не ниже 2.3, а лучше 2.4. Это важно для корректной работы некоторых процессоров Intel в состоянии простоя «С1».
Корпус, жесткие диски, привод я решил не менять — в этом нет необходимости. В качестве системного диска я использую уже не новый и не самый быстрый, но надежный Intel SSD 520 240 Гб. В будущем планирую поставить еще один SSD диск такого же объема, чтобы все файлы одного проекта находились на твердотельном накопителе, хотя это и не дает такого уж значительного эффекта, но об этом ниже.
Итоговая конфигурация
Итак, сводная таблица, а дальше я расскажу о производительности.
Процессор: Intel Core i7-5820K
Материнская плата: MSI X99A SLI PLUS
Оперативная память: DDR4 2400 MHz G.Skill 8*4 Gb
Видеокарта: Gigabyte nVidia GeForce 960 GTX 4Gb
Системный диск: SSD Intel 520 240Gb
Портативный диск USB 3.0 (для тестов) Seagate Backup Plus Portable Drive SRD00F1 2TB
Рабочие диски: 4 HDD 7200 rpm
Блок питания: Aerocool KCAS 600W
Тестирование производительности в Adobe Premiere Pro
Работа с 4K контентом проверялась в Adobe Premiere Pro CC 2015 v 9.0 (работа с потоками) и Adobe Premiere Pro CC 2014 v8.1 (работа с эффектами) на файлах снятых видеокамерой Sony FDR-AX100 (XAVC-S, битрейт 60 Mbs) и квадрокоптером DJI Phantom 3 Pro (60 Mbs).
Многопоточный вывод 4K видеоSSD vs USB 3.0 HDD: есть ли большая разница?
Вначале я решил протестировать дисковую производительность и посмотреть сколько потоков видео 4K система сможет воспроизводить одновременно. Я выбрал два режима: когда исходные файлы находятся на SSD и когда лежат на портативном жестком диске, подключенном через USB 3.0. Для этого я сделал две отдельные секвенции с соответствующими исходниками длиной по 32 секунды каждая. Я предполагал, что разница будет просто разительная, на деле все оказалось совсем не так.
Окно просмотра 1/2 (разрешение FullHD):
SSD Intel 520 240Gb.
5 потоков 4K — пропущено 2 кадра (т.е. без тормозов)
SSD Intel 520 240Gb.
6 потоков 4K — пропущено 189 кадров.
Таким образом, Adobe Premiere на этой системе и с этим SSD может тянуть без задержек максимум 5 потоков 4K в окне просмотра с выводом в FullHD. Разумеется, это идеальные условия: видео запускается с начала и играется до конца. Если вы будете им манипулировать, двигать, обрезать и тут же ставить playback, то будут существенные фризы из-за того, что Премьер не успеет начать чтение всех потоков.
Ну а теперь возьмем обычный портативный 2,5″ USB 3.0 диск со скоростью вращения 5400 rpm. Подобные диски я использую для бэкапов и часто монтирую прямо с них.
USB 3.0 Seagate Backup Plus Portable Drive 2,5″ 2TB
4 потока 4K — пропущено 0 кадров.
А вот при 5 потоках видео начинает сильно тормозить за гранью комфортного просмотра. Так что мы имеем? Что в разы более быстрый SSD (тем более при многопоточной нагрузке) выигрывает всего 20% (тянет на 1 поток больше). Adobe пора задуматься над оптимизацией, мне кажется. Разумеется, наш 4K в 65mbs и 4K в 300 mbs это разные вещи. Но, согласитесь, никто не выводит в одно окно 4 потока, такие штуки делаются, в основном в After Effects, а не в Premiere. 99% времени мы работаем всего с 1 потоком на экране, переключаясь между ними при многокамерной съемке. Так что факт остается фактом: помещение исходников на SSD для Adobe Premiere 2015 CC не имеет большого смысла для битрейтов менее 100 mbs. Достаточно обычных внутренних жестких дисков на 7200 rpm.
Теперь посмотрим как изменится ситуация, если в окне вывода выставить разрешение 1/4 от оригинала. Для 4К этого более-менее достаточно, если вы не выводите окно просмотра на отдельный монитор, но здесь этот тест, скорее, для общего понимания.
Окно просмотра 1/4:
SSD Intel 520 240Gb.
6 потоков 4K — пропущено 4 кадра (т.е. без тормозов)
USB 3.0 Seagate Backup Plus Portable Drive 2,5″ 2TB
5 потоков 4K — пропущено 4 кадра (т. е. без тормозов)
При добавлении еще одного видеоряда, в обоих случаях начиналось сильное торможение. Вывод: просмотр в разрешении 1/4 оригинала дает возможность проигрывать дополнительно 1 поток видео, но в реальной жизни картинка такого разрешения мало приемлема.
Работа с видеоэффектами в реальном времениОкно вывода 1/2 (разрешение FullHD). Рендер в Film Convert и Magic Bullet Looks на CPU.
Реалтайм с добавлением эффектов на видео я тестировал в Adobe Premiere Pro CC 2014 v8.1. Забегая вперед — здесь все выглядит более чем отлично, сразу чувствуется реальная производительность системы. Какие конкретно фильтры я применял будет написано подробно, но отдельно остановлюсь на настройках фильтров для цветокоррекции, т.к. функций в них предостаточно. В Magic Bullet Looks я поставил все мыслимые фильтры, в том числе и тяжелый Cosmo. Для реальной цветокоррекции все вместе они редко применяются и собраны лишь для того, чтобы проверить систему в тяжелых режимах.
Плагин FilmConvert Pro 2 не предлагает таких обширных возможностей, поэтому в нем я ограничился эмуляцией пленки, коррекцией экспозиции и работой с уровнями.
Для первого прогона я использовал 45-секундный фрагмент, состоящий из двух видео, соединенных между собой cross disolve. На каждом были наложены: Warp Stabilizer, Magic Bullet Looks, Sharpen.
Ролик содержал 1137 из них было пропущено 8. Видно, что система работала на грани. Тем не менее, вытянула реалтайм. Нагрузка на процессор составила 100%. Это и есть потолок данной системы. В реальном монтаже, как я уже говорил, Magic Bullet Looks применяется с гораздо меньшим числом фильтров, так что даже при включенном Warp Stabilizer никаких проблем вы испытывать не будете. Никакого пререндера. Очень хороший результат.
Теперь же перейдем к более естественному тесту. Последовательность видео та же самая, на каждый видеоролик наложены фильтры: FilmConvert Pro 2, Sharpen.
Никаких просадок, нет пропущенных кадров, все очень плавно, нагрузка на процессор всей системы — 65%. Т.е. в реальной работе вы можете использовать цветокоррекцию, еще некоторые фильтры и выводить все это в реал-тайме в разрешении FullHD. При этом у вас остается запас мощности для работы с 4K материалом более высокого битрейта и с большей частотой кадров.
Теперь запустим аналогичный тест, но выставим в настройках плагинов цветокоррекции рендер с помощью GPU (OpenCL)
Окно вывода 1/2 (разрешение FullHD). Рендер в Film Convert и Magic Bullet Looks на GPU.
Нагрузка на процессор составляла от 13% до 60%. Нагрузка на видеокарту была около 20%.
Окно вывода 1/1 (разрешение 4K). Рендер в Film Convert и Magic Bullet Looks на GPU.
Теперь повторим предыдущий тест, но в окне просмотра поставим полное разрешение 4K.
Нагрузка на процессор составила от 45% до 100%, в среднем держалась в районе 85-90%. Нагрузка на видеокарту также была очень неравномерной: от 18% до 80%, в среднем на уровне 45%.
Как видно, включение рендера силами GPU везде, где это только возможно, снижает нагрузку на процессор в 3-4 раза, что увеличивает общую отзывчивость системы (хоть и не до того уровня, как хотелось бы).
Узкие места
Как обычно, узким местом Adobe Premiere Pro CC 2015 (как и его предшественников) осталась навигация по таймлайну. Если само проигрывание идет без тормозов, то непосредственно в работе ощущаются задержки и фризы из-за подгрузки видео, даже при размещении всех исходников на SSD. Особенно это проявляется если быстро скользить по видео (доходит вплоть до потери картинки), а если по таймлайну двигаться справа налево (т.е. когда видео проигрывается задом наперед) — все становится еще печальнее. Почему Premiere не использует немалый объем оперативной памяти, чтобы держать видео в полной готовности — непонятно. Ведь наверняка можно грузить в систему все фрагменты видеофайлов, которые в конкретный момент времени находятся на таймлайне. Я, конечно, не программист, но мне кажется, что девелоперам из Adobe еще есть над чем работать в плане комфорта нашей работы.
Таким образом, даже на таком мощном компьютере во время работы с 4K вы не получите той плавности, о которой мечтали. Причем, собрав систему еще в 2 раза мощнее — результат не изменится из-за несовершенства программного обеспечения.
Тем не менее, выбора у нас нет и работать нужно уже сейчас, Adobe Premiere обновляется достаточно часто, возможно, опять изобретут что-нибудь революционное типа Mercury Engine, как это было в свое время.
Посмотрите видео по теме монтажа в 4к 2018 года.
ЗаключениеПо моему мнению, 4K видео станет реально востребовано не ранее, чем через 2-3 года и то, только для короткого постановочного видео (я не беру крупные студии, снимающие художественные фильмы). 4K на телевидении потребует полного переоснащения и огромных инвестиций. Многие на это не пойдут, хотя ради движения прогресса в 4K уже активно снимаются спортивные мероприятия и транслируются по подписке немногочисленным владельцам 70-дюймовых телевизоров. 4K уже запихивают и в 40″, только вот с расстояния полтора метра разницы не видно, это ведь не монитор.
Крупнейшие американские кабельные операторы, студии и телеканалы не спешат переходить на UltraHD, используя его, в основном как пилотные проекты для прощупывания рынка. Их основной аргумент: переход на сверхвысокую четкость не принесет дополнительного дохода, зато принесет огромные расходы и заставит перестраивать всю бизнес-модель. А все дело в том, что обычному потребителю с 50″ телевизором не нужен 4K. Для которого он должен купить новый телевизор.
В России с переходом на 4K можно, тем более, не спешить, т.к. если видепроизводство для вас работа, а не просто увлечение, то вам и так понятно нынешнее положение дел в телеиндустрии, где FullHD будет править бал еще с десяток лет, если не больше. Достаточно того, что многие региональные телеканалы заказывают у студий контент в SD (при том, что снимают и монтируют его в HD).
Тем не менее, никто не мешает вам снимать 4K проекты для себя, даже там, где заказчик требует FullHD. В конце концов, ваше умение обращаться с 4K видео точно пойдет вам на пользу и выделит вас из общей массы, создав вам конкурентные преимущества.
P.S. Обновление 2017
В 2017 году я продолжаю монтировать на этом компьютере в Adobe Premiere Pro СС, изменений в конфигурацию я не вносил, за тем исключением, что сейчас весь монтаж идет с SSD дисков Kingstone HyperX Savage 240 Gb. Эти диски работают на пределе пропускной способности Sata III, переходить на что-то более быстрое — смысла нет, т.к. Adobe Premiere все равно не задействует всю производительность.
Ускорить обработку видео — это включить GPU видеокарты – MLife Studio
Если на вашем компьютере отдельная видеокарта, не интегрированная, то для того, чтобы видео обрабатывалось быстрее, нужно использовать GPU видеокарты.
Включение в настройках видеоредактора GPU ускорит прорисовку объектов в Adobe After Effects, при рендеринге видео ускорит сам процесс рендеринга, и самое главное — уменьшит нагрузку на центральный процессор.
Что такое GPU видеокарты?
Это отдельный процессор самой видеокарты, который работает независимо от центрального процессора. Он выполняет обработку 2D или 3D графики и делает это лучше и быстрее нежели центральный процессор компьютера.
Другими словами, зачем вам нагружать CPU если для задач оцифровки видео есть GPU. Современные видеокарты имеют не только собственную оперативную память, что также немаловажно при работе с большими видеопроектами, но и собственный графический процессор.
Чтобы понять, как именно обрабатывается ваше видео, с помощью CPU или GPU, во время работы в видеоредакторе, откройте диспетчер задач и посмотрите, где больше нагрузки, на процессоре ЦПУ или на видеокарте.
Если видеокарта «спит», её нагрузка 2-5%, а процессор загружен по 90 или 100%, то обязательно нужно изменить настройки своего редактора. Он просто автоматически не подхватывает вашу видеокарту и всю работу по вычислению возлагает на процессор.
Итак, в Adobe Premiere — заходим во вкладку «Файл — Настройки проекта — Общие» и выбираем настройку CUDA, то есть GPU ускорение ядра. Теперь при работе с проектом, в диспетчере задач вы увидите, то центральный процессор загружен меньше, а графический (видеокарта) больше.
В Adobe After effects заходим во вкладку «Файл — настройки проекта — Рендеринг и эффекты видео». Выбираем настройку «Ускорение с использование ГП (GP) CUDA». Если по умолчанию эта настройка не будет включаться, каждый раз при настройке отдельного проекта, нужно проверить, какая опция стоит.
В Vegas идем в настройки общие. Options — preferences — во вкладку video. Здесь ищем пункт GPU и выбираем свою видеокарту.
Если это любой другой видеоредактор, то в настройках также нужно проверить, нет ли там опции, позволяющей программе работать с ваше картой. Например, в Movavi эта настройка выглядит так: «Включить аппаратное ускорение» и соответственно нужно будет выбрать карту. В моем случае Nvidia.
Итог. Если у вас интегрированная видеокарта, то вся нагрузка за обработку видео ляжет на ЦПУ. Тут без вариантов и чем мощнее процессор, то быстрее будет обрабатываться видео.
Если же у вас отдельная видеокарта, то нужно проверять, как программа подхватывает её и выбирать для работы GPU. Иначе ресурсы видеокарты не будут использоваться.
Ускоряем Premiere Pro и After Effects. Активация CUDA. — DJ KRYPTON
В сегодняшнем уроке я покажу как во много раз ускорить работу таких программ как Premiere Pro и After Effects с использованием технологии CUDA.
CUDA (англ. Compute Unified Device Architecture) — архитектура параллельных вычислений от NVIDIA, позволяющая существенно увеличить вычислительную производительность благодаря использованию GPU (графических процессоров видеокарт).
На сегодняшний день эта технология широко используется в различных областях, включая обработку видео, изображений, 3D графику и тд. Например, в программе Premiere Pro CS6 движок Mercury Playback, усиленный процессором графической карты, позволяет до 8 раз увеличить производительность многих фильтров цветокоррекции, обработку в реальном времени файлов с различными кодировками на одной линейке, промежуточных пересчетов и тд. В программе After Effects повляется возможность использовать новую технологию 3D ray-traced для упрощения и ускорения работы с графикой и анимацией. Полный список программ с поддержкой технологии CUDA.
Многие видеокарты по умолчанию не поддерживаются в программах Premiere Pro и After Effects CS6. К счастью, существует быстрый способ это исправить, который я и покажу Вам в этом уроке.
Для начала несколько фактов:
1. В этом уроке мы будем работать с видеокартой ASUS GeForce GTX 680 2GB, но не все видеокарты NVIDIA GeForce поддерживают технологию CUDA. Список поддерживаемых карт.
2. В Вашей системе должна быть установлена оперативная память не ниже DDR3.
3. Лучше использовать видеокарту с минимальным объемом памяти 1 ГБ.
4. Я покажу как активировать технологию CUDA на системе MAC OSX. Похожим способом можно активировать CUDA и на Windows машине.
Надеюсь, этот урок был полезным! Также надеюсь, что Вы быстро почувствуйте все прелести работы в знакомых приложениях, но на новых скоростях!
Сборка персонализированного ПК для Adobe After Effects
Сборка персонализированного ПК для программного обеспечения может сэкономить часы разочарований от редактирования медленной и неоптимизированной программы. Мы регулярно получаем клиентов с просьбой дать рекомендации по компонентам для Adobe Suite. Наши специалисты по продажам всегда готовы дать вам рекомендации по продуктам, но если вы хотите узнать больше о создании ПК для Adobe After Effects, вы можете получить от нас несколько полезных советов ниже!
Что такое Adobe After Effects?
Используется визуальными художниками, Adobe After Effects специализируется на анимированной графике, видео VR, анимации и эффектах CGI.Являясь частью Adobe Suite, After Effects отличается от Premiere тем, что позволяет художникам вносить последние штрихи в сцены и включать различные эффекты, недоступные в Adobe Premiere.
After Effects — отличный выбор для тех, кто хочет вывести свои видеоматериалы на новый уровень. Premiere в основном используется для сшивания «большей картины», в то время как After Effects можно использовать для добавления взрыва к сцене, изменения атмосферы с помощью тумана CGI и множества других применений.
Какие минимальные технические характеристики ПК мне необходимы для запуска Adobe After Effects?
Ниже приведены требования непосредственно от Adobe! Adobe предоставляет как минимальные, так и рекомендуемые спецификации. Минимальных спецификаций ПК будет достаточно, чтобы открыть программу и выполнить простые задачи, в то время как рекомендуемые должны позволить вам выполнить большинство задач, это может занять некоторое время и немного проверить ваше терпение, если вы запускаете программу.
Минимальные спецификации | |
Процессор | Многоядерный процессор Intel с поддержкой 64-бит |
Операционная система | Microsoft Windows 10 (64-разрядная) версии 1803 и выше |
ОЗУ | Минимум 16 ГБ (рекомендуется 32 ГБ) |
GPU | 2 ГБ видеопамяти GPU.Adobe настоятельно рекомендует обновиться до драйвера NVIDIA 451.77 или более поздней версии при использовании After Effects. Драйверы до этого имеют известную проблему, которая может привести к сбою. |
Пространство на жестком диске | 5 ГБ свободного места на жестком диске; дополнительное свободное пространство, необходимое во время установки (не устанавливается на съемные флеш-накопители) Дополнительное дисковое пространство для дискового кэша (рекомендуется 10 ГБ) |
Разрешение монитора | 1280 × 1080 или больше Разрешение дисплея |
Интернет | Подключение к Интернету и регистрация необходима для обязательной активации программного обеспечения, подтверждения подписок и доступа к онлайн-сервисам. * |
Приведенная выше информация является хорошим началом и подойдет тем, кто только изучает Adobe After Effects, а рекомендуемые компоненты могут легко получить обычный пользователь After Effects.
Как улучшить работу After Effects на моем ПК?
Послушайте, если вы активно используете Adobe After Effects для завершения проектов, то вы понимаете важность бесперебойной работы After Effects. Никому не нравится, когда программа неожиданно закрывается или на рендеринг уходит часы.Однако After Effects имеет множество применений, и каждое из них требует затрат на разные компоненты ПК. В зависимости от проектов, которые вы обычно выполняете, другой комплект ОЗУ может быть более выгодным, чем обновление ЦП. Наши специалисты по продажам тщательно исследовали и работали с Adobe Suite и могут дать вам оптимизированные рекомендации в рамках вашего бюджета, но мы рассмотрим базовое понимание оптимизации вашего персонализированного ПК для Adobe After Effects.
Какой процессор мне выбрать для After Effects?
After Effects предпочитает процессоры с большим количеством ядер, а не с более высокой рабочей частотой, но в какой-то момент это предел.
Мы рекомендуем Intel Core i9-10900F. Если вы предпочитаете систему на базе AMD, то Ryzen 9 3900X также станет отличным выбором. Обычно вы увидите лучшую производительность при выборе обновления ОЗУ, графического процессора или хранилища, чем при обновлении до платформы Intel Xeon или процессоров AMD Ryzen. Обычно лучше выделять больше средств из бюджета на другие компоненты.
Какой графический процессор лучше всего работает с Adobe After Effects?
Adobe рекомендует использовать видеокарту с 2 ГБ vRAM, которая соответствует графическим процессорам последнего поколения.After Effects довольно сильно зависит от производительности графического процессора для большинства задач, поэтому мы рекомендуем использовать Nvidia GeForce RTX 2080Ti. Лучшая игровая видеокарта на рынке.
Использование графического процессора для рабочих станций с Adobe имеет тенденцию к незначительному увеличению производительности, а графические процессоры класса рабочих станций обычно имеют большую долговечность. Однако производительность не стоит увеличения цены, и ваши деньги лучше потратить на что-то другое. Если вас особенно беспокоит перегрузка видеокарт, тогда карты Quadro RTX — лучший вариант!
Сколько оперативной памяти требуется After Effects?
After Effects требует 16 ГБ ОЗУ, но рекомендует 32 ГБ, что мы выбрали в нашей пользовательской конфигурации ПК After Effects.В зависимости от сложности моделей и эффектов, с которыми вы планируете работать, вы действительно не ошибетесь, обновив оперативную память для After Effects. Дополнительное пространство для маневра в вашем бюджете, вероятно, следует потратить, увеличивая его до 64 ГБ.
Рекомендация Adobe After Effects для индивидуальных ПК от AVADirect
В наших конфигурациях предусмотрены варианты обновления компонентов без помощи нашего отдела продаж.
Adobe After Effects Workstation PC
- Разъем: 1200
- ЦП: Core i7, Core i9
- Набор микросхем: Intel Z490
- Память: до 128 ГБ
- Хранение: до 8 жестких дисков или SSD-накопителей
- Графика: Поддерживает до 2 видеокарт
Наш пользовательский ПК Adobe After Effects содержит компоненты, оптимизированные для эффективной работы After Effects, при этом оставаясь при этом экономичным.Этот ПК поставляется с базовой конфигурацией Intel Core i9-10900F с возможностью обновления до Intel i9-10900K, если вам нужна более высокая частота для лучшей оптимизации вашей системы. Мы также выбрали ASUS ProArt Z490-Creator, который оптимизирован для использования на рабочих станциях. Выбирайте из широкого спектра видеокарт, в базовой конфигурации предварительно выбрана ASUS GeForce RTX ™ 2080 Ti OC. Как упоминалось выше, базовая конфигурация поставляется с 32 ГБ памяти Kingston HyperX Fury DDR4. Если вы планируете многозадачность, выберите больший объем памяти. Возможно, вы захотите заменить кулер с вентилятором на моноблок, если вы планируете разгонять процессор или загружать свою систему часами.
С точки зрения хранения, мы предлагаем множество вариантов! Не стесняйтесь обновить твердотельный накопитель Samsung M.2 емкостью 250 ГБ или заменить его на твердотельный накопитель с интерфейсом SATA для повышения скорости записи. Базовая конфигурация поставляется с большим объемом памяти и здоровенным жестким диском на 4 ТБ, но вы немного жертвуете скоростью ради этого бюджета.
Хотите, чтобы персонализированный ПК с Adobe After Effects был оптимизирован для вашего сценария использования и бюджета? Наши компетентные специалисты по продажам доступны по телефону, электронной почте и в чате в обычные рабочие часы.Они с удовольствием обсудят вашу работу и поделятся своим мнением о том, какие компоненты оптимизируют ваш рабочий процесс в зависимости от ваших конкретных проектов.
Так ли важна обработка графики в After Effects?
Обратите внимание, что в обоих типах видеокарт мы много говорили о памяти. Имейте это в виду, потому что через минуту это станет большим событием.
Действительно ли графический процессор важен для After Effects?
В недалеком прошлом графические процессоры были гораздо важнее, чем сегодня.Adobe когда-то использовала сертифицированную видеокарту для графического ускорителя 3D-рендеринга с трассировкой лучей, а также использовала OpenGL с графическим процессором для Fast Draft и OpenGL Swap Buffer. Однако интеграция OpenGL была изъята из After Effects компанией Adobe из-за отсутствия полной функциональности, а средство 3D-рендеринга с трассировкой лучей было заменено добавлением Cinema 4D Lite в After Effects CC. Итак, возникает вопрос. Действительно ли высококачественная видеокарта и графический процессор так важны для After Effects? Краткий ответ: нет.А теперь перейдем к более подробному ответу. По словам Рика Джерарда, редактора, 9 раз удостоенного премии «Эмми»:Графический процессор не используется для рендеринга 99% всего, что делает AE. — Рик Джерард, редактор, удостоенный премии «Эмми»
Примечание: Рик использует After Effects с 1993 года и преподает его с 1995 года. Вау.
Итак, если графический процессор не имеет большого значения, то что?
Помните, всего несколько абзацев назад я сказал вам запомнить слово «память»? Что ж, теперь пора поговорить об этом подробнее.Хотя графическая карта будет иметь свою собственную выделенную память, After Effects никогда не использует все возможности этой памяти. Вместо этого After Effects в значительной степени полагается на память и центральный процессор вашего компьютера, а не на видеокарту или графический процессор внутри него.
Оперативная память, как мы ее называем, сегодня очень важна для подавляющего большинства программного обеспечения. Его основная функция — помогать процессору и получать информацию, необходимую для более быстрой обработки задания или задачи. Недостаток оперативной памяти может затруднить работу ЦП и усложнить выполнение работы.
Лучшая видеокарта для After Effects в 2021 году
Adobe After Effects — это технология компьютерных визуальных эффектов, анимированной графики и композитинга, созданная Adobe Systems при пост-продакшене фильмов, видеоигр и телешоу. After Effects можно использовать, помимо прочего, для отслеживания, создания сценариев и анимации. Он также имеет возможности простого нелинейного редактирования, редактирования аудио и перекодирования мультимедиа.
Не требуя C ++, After Effects Extensions позволяет расширить возможности After Effects с помощью современных технологий веб-разработки, включая HTML5 и Node.js. Популярная платформа расширяемости Adobe, или панели CEP, используются для расширений After Effects, что позволяет им интегрироваться с другими приложениями Adobe Creative Cloud.
Сторонние интеграции могут расширить возможности After Effects; самые популярные интеграции — это плагины и скрипты. Сценарии в After Effects — это набор команд, написанных на JavaScript и ExtendScript. За исключением плагинов, сценарии After Effects могут получить доступ только к ключевым функциям After Effects.
Nvidia Quadro RTX 4000 с чудовищными возможностями, производительностью и функциями занимает первое место в списке видеокарт.По сравнению с некоторыми другими профессиональными видеокартами NVIDIA, Quadro RTX 4000 кажется очень мягким решением. Что касается вычислительной пропускной способности, Quadro RTX 4000 значительно опережает Quadro P4000 и Radeon Pro WX7100, превосходя P5000. Превосходя стандартную про-графику Nvidia за счет значительного обеспечения пиковой пропускной способности памяти и дополнительных функций, этой видеокарте удалось стать лучшим продуктом в этой статье.
В этой статье удастся настроить лучший графический процессор для работы после эффектов путем проведения различных тестов и тестов.
Дизайн | Руководства по покупке | Продавец |
---|
Частота памяти | 1750 МГц |
Частота разгона | 1545 МГц |
Имя графического процессора | TU102 |
Тактовая частота | 1350 МГц |
GeForce RTX 2080 Ti — третий по популярности графический процессор на рынке, даже если вы ищете более мощный графический процессор или хотите получить преимущество перед видением Nvidia будущего с трассировкой лучей. С точки зрения игры, видеокарта Nvidia GeForce RTX 2080 Ti по-прежнему остается зверем. Он добавляет отличную технологию трассировки лучей и тензорные ядра на базе искусственного интеллекта для каждой миссии с интенсивным использованием графики, и он может играть со скоростью более 60 кадров в секунду в 4K. Он, несомненно, превосходит своего предшественника, Nvidia GeForce GTX 1080 Ti.
Если вы хотите играть в высококачественные игры, вы не ошибетесь, выбрав Nvidia GeForce RTX 2080 Ti. В частности, если вы объедините его с лучшим процессором и игровым дисплеем, что позволит вам получить от него максимальную отдачу.Nvidia GeForce RTX 2080 Ti обладает впечатляющими характеристиками с 11 ГБ видеопамяти GDDR6, оснащенными 4352 ядрами CUDA и максимальной тактовой частотой 1635 МГц.
Это все из-за первого в истории персонального заводского разгона Nvidia до 90 МГц. С другой стороны, Nvidia GeForce GTX 1080 Ti имеет 11 ГБ видеопамяти GDDR5X последнего поколения, 3584 ядра CUDA и максимальную полосу пропускания 1582 МГц.
Согласно TechRadar, ядра RT и Tensor — это два дополнительных ядра, используемых в этом графическом процессоре, которых не хватало его предшественникам.Трассировка лучей поддерживается 68 ядрами RT RTX 2080 Ti, что позволяет этой видеокарте создавать гораздо более сложные ситуации освещения в реальном времени и естественное затенение, чем когда-либо могла делать 1080 Ti.
Число 544 тензорных ядер представляет машинное обучение (ИИ), которое Nvidia планирует повысить эффективность сглаживания. Turing, по данным Nvidia, в восемь раз быстрее, чем Pascal, при обработке сглаживания благодаря машинному обучению. Тензорные ядра также поддерживают новую технику, известную как суперсэмплинг глубокого обучения, которая может повысить разрешение, а также добавить сглаживание на уровне пикселей.
RTX 2080 Ti имеет два таких порта, которые могут обеспечить до 100 ГБ общей полосы пропускания для поддержки нескольких дисплеев 8K в режиме объемного звучания.
Кулер с вентилятором часто был включен в состав первых карт, который всасывает холодный воздух через свой вентилятор, чтобы отфильтровать тепло через заднюю часть карты. Между тем, машина с двумя вентиляторами забирает холодный воздух и разбрызгивает его на открытый кулер процессора, чтобы отводить тепло в обоих направлениях. Герметичная паровая камера покрывает всю печатную плату или печатную плату Nvidia RTX 2080 Ti, в дополнение к существующим вентиляторам.
Благодаря этому, а также конструкции с двумя вентиляторами, вся система работает вместе, обеспечивая ультра-прохладный и бесшумный результат. Он не только опережает GeForce GTX 1080 Ti, но и значительно опережает Nvidia Titan Xp.
Почти в каждом смоделированном тесте последняя флагманская карта GeForce от Nvidia опережает на 2 000 баллов, и в каждом из наших игровых тестов она предлагает как минимум на десять больше кадров в секунду (fps). Nvidia всегда значительно опережала AMD, а с RTX 2080 Ti создается впечатление, что бизнес переместился в следующую галактику.
Удивительно, но Nvidia RTX 2080 Ti использует меньше топлива для достижения такой производительности, чем Titan XP и 1080 Ti, которые он превосходит.
Все больше и больше геймеров поддерживают новые технологии, среди последних дополнений — Cyberpunk 2077 и Call of Duty: Modern Warfare. Nvidia RTX 2080 Ti — последняя лучшая свинья во вселенной видеокарт.
Плюсы
- Возможность игры в 4K со скоростью 60 кадров в секунду
- DLSS — еще одна захватывающая функция с огромным потенциалом
- Устанавливает новую планку производительности одного графического процессора
Минусы
- Единственный реальный вариант для компьютерных игр 4K, и высокая цена означает, что
- Поддержка игр для уникальных функций трассировки лучей должна подождать
В линейку Quadro RTX входят четыре видеокарты, от чудовищной Quadro RTX 8000 с 48 ГБ GDDR6 до Quadro RTX 4000, предназначенные для более популярных создателей контента.
По сравнению с некоторыми другими профессиональными видеокартами NVIDIA, Quadro RTX 4000 кажется очень мягким решением.
NVIDIA Quadro RTX 4000, как и GeForce RTX 2060 и RTX 2070, основана на графическом процессоре Turing TU106. Он имеет графический процессор, который может работать на частоте 1545 МГц и объединен с 8 ГБ GDDR6 через 256-битный интерфейс для скорости передачи данных 13 Гбит / с. Карта обеспечит пиковую пропускную способность памяти до 415 ГБ / с на этой скорости.
Quadro RTX 4000 превосходит Quadro P4000 на базе Pascal в стандартной линейке профессиональных графических процессоров NVIDIA, обладая значительно большей производительностью по всем направлениям и значительно большим объемом памяти, а также некоторыми дополнительными функциями благодаря структуре кэша графических процессоров на основе Тьюринга и лежащей в основе Особенности.
Поскольку TDP Quadro RTX 4000 намного выше, чем у Quadro P4000 (160 Вт против 105 Вт), ему также требуется только один дополнительный источник питания.
Один 8-контактный разъем питания PCI Express выступает из задней части вентилятора на дальнем конце. Quadro RTX 4000 имеет три полноразмерных порта DisplayPort (DP1.4) и один разъем VitualLink в стиле USB-C, четырехканальный порт HBR3 DisplayPort и USB 3.1 Gen 2 через один разъем.
Quadro RTX 4000 значительно опережает Quadro P4000 и Radeon Pro WX7100 по пропускной способности хэширования, превосходя P5000.RX 4000 отстает от Radeon Pro WX 7100 в тесте шифрования / дешифрования AES256. С Quadro RTX 4000 эффективность обработки изображений была превосходной. В этом тесте карта почти догнала Radeon Pro WX 8200 и легко опередила Quadro P4000 и P5000.
Низкое энергопотребление Quadro RTX 4000 превращается в удивительно тихую видеокарту. Quadro RTX 4000 работает бесшумно на рабочем столе или при небольшой нагрузке и не будет заметен в закрытом корпусе над стандартным кулером ЦП или блоком питания.
В целом NVIDIA Quadro RTX 4000 оказалась хорошей видеокартой. Нет никакой разницы между RTX 4000 и Quadro P4000 на базе Pascal предыдущего поколения — RTX 4000 был значительно быстрее в любой тестируемой нами рабочей нагрузке. В некоторых случаях Quadro RTX 4000 превосходил Quadro P5000, несмотря на значительно более высокую цену последнего.
В наших образцах Quadro RTX 4000 победил Radeon Pro WX 7100 и сражался с немного более дорогим Radeon Pro WX 8200, в то время как RTX 4000 значительно опередил в некоторых тестах рендеринга (например, V-RAY ).
Гигабайт GeForce RTX 2070Частота памяти | 1750 МГц |
Базовая частота | 1410 МГц |
Тактовая частота с ускорением | 1620 МГц |
TDP | 175 Вт |
GeForce RTX 2070 Gaming OC 8G от Gigabyte превосходит карту Nvidia Founders Edition, поэтому стоит меньше.Прямо из коробки карта обеспечивает фантастическую частоту кадров в разрешении 2560 x 1440 с полностью встроенными настройками детализации. Благодаря большему напряжению питания, тепловому решению с тремя вентиляторами, разогнанной частоте ядра, RGB-подсветке и значительной скидке Gigabyte GeForce RTX 2070 Gaming OC 8G стремится превзойти итерацию Founders Edition. По большей части это работает.
Он плавнее, чем GeForce GTX 1080, имеет более современную архитектуру и стоит почти столько же. 2070 Gaming OC 8G — отличный вариант, если вы играете в разрешении 2560 x 1440 с приличными настройками качества.Просто убедитесь, что он в футляре с хорошей вентиляцией. Переработанный кулер Windforce 3X будет признателен.
Карта Nvidia Founders Editionдороже, чем GeForce RTX 2070 Gaming OC 8G от Gigabyte. Это то, что нужно многим игрокам, чтобы получить рекомендацию. Компания Gigabyte сделала недорогой RTX 2070 на длинной плате с прикрепленными переходниками и восьмифазным блоком питания, который нам нужен.
Если вы можете иметь дело с процессором TU106, предназначенным для более низких тактовых частот, есть более дешевые карты RTX 2070, чем Gigabyte 2070 Gaming OC.Кулер от Nvidia — тоже наш фаворит. Чтобы не отставать от огня TU106, его меньшие 80-миллиметровые вентиляторы должны вращаться быстро.
Предел стандартной мощности, который, как правило, примерно на 40 Вт выше, чем у платы Nvidia, усугубляет ситуацию. Gigabyte может достичь агрессивных тактовых частот благодаря повышенному напряжению графического процессора, но это также означает, что вентиляторы должны справиться с большим количеством тепла. Когда вы помещаете карту в заблокированное шасси, ситуация становится еще хуже.
В худшем случае температура графического процессора превышает 80 ° C, вентиляторы вращаются со скоростью почти 2700 об / мин, а частота ядра падает ниже эталонных 1620 МГц Nvidia.Удивительно, но большинство игр не имеют такой тепловой нагрузки, как FurMark.
Как сказано в аппаратном обеспечении Тома, Gigabyte обсыпает пластиком кожух Gaming OC 8G, который вмещает три 80-мм вентилятора (вместо двух 82-мм вентиляторов 2080 Gaming OC 8G). Эти вентиляторы продувают множество алюминиевых пластин, разделенных на три секции.
Сегмент, ближайший к выходам монитора, возвышается над платой. Не допускает контакта с какими-либо бортовыми компонентами; вместо этого он помогает рассеивать тепловую энергию от четырех тепловых трубок, которые входят в процессор TU106.Средняя часть поддерживает графический процессор от Nvidia. По нему проходят те же четыре трубы.
Плюсы
- Быстрее, чем GeForce GTX 1080
- Founders Edition прекрасно спроектирована
- Великолепная игровая производительность при разрешении 1440p и 4K начального уровня
Минусы
- Нет опции SLI
- Скачок в ценах на поколение
Ядра Nvidia CUDA | 10,496 |
Тактовая частота с ускорением (ГГц) | 1.70 |
Стандартная конфигурация памяти | 24 ГБ GDDR6X |
Ширина интерфейса памяти | 384-бит |
Nvidia GeForce RTX 3080 — массивная видеокарта, представляющая одно из важнейших поколений. успехов в истории GPU.
Эта видеокарта должна быть интересна тем, кто занимается играми в разрешении 4K. Игры 4K стали известны благодаря Nvidia GeForce RTX 3080. Новая модель карты превосходит своих современников и включает уроки, извлеченные из рынка, сочетая выдающиеся результаты с ценой, которая почти вдвое ниже, чем у предыдущей модели.
Особенно по сравнению с завышенными ценами на Nvidia GeForce RTX 2080 и RTX 2080 Ti, которые она заменила, Nvidia GeForce RTX 3080 гораздо больше в рамках бюджета большинства людей. Проще говоря, 3080 — лучший вариант. Но именно прирост производительности, который он обеспечивает, на 50-80% по сравнению с RTX 2080 и на 20-30% по сравнению с RTX 2080 Ti, делает 3080 однозначно более выгодным приобретением.
Поскольку Nvidia расширила бюджет мощности по сравнению с RTX 2080 при одновременном повышении энергоэффективности, общий выходной профиль намного превосходит возможности любой видеокарты Nvidia Turing.Механизм растеризации показал наибольшие изменения.
Nvidia получила возможность удвоить количество ядер CUDA на каждом потоковом мультипроцессоре (SM), разрешив всем SM обрабатывать числа с плавающей запятой 32 (FP32), что является значительным улучшением по сравнению с Turing, у которого был только один путь к данным, предназначенный для целочисленных рабочих нагрузок. Это по существу удваивает исходную пропускную способность ядра FP32 для ядра, но это не всегда приводит к удвоению частоты кадров в ваших любимых компьютерных играх — по крайней мере, не для всех из них.
Nvidia GeForce RTX 3080 имеет на 46 процентов больше SM (68), чем RTX 2080, но у нее более чем вдвое больше ядер CUDA (с 2944 до 8704) и более чем вдвое количество ядер CUDA (с 2944 до 8704).Это приводит к почти трехкратному увеличению потенциальной пропускной способности FP32, примерно с 10 до 29,7 терафлопс — огромный скачок между поколениями.
Если объединить увеличение количества ядер CUDA со значительным увеличением кэш-памяти, текстурных блоков и пропускной способности памяти — все из-за перехода на более быструю память GDDR6X на 320-битной шине — игровая производительность становится одним из самых значительных скачков за последние годы. , даже если он не дотягивает до «двукратной производительности».
Ядра RT второго поколения используются в видеокартах Nvidia Ampere, таких как RTX 3080, которые будут работать так же, как ядра RT первого поколения, но при этом будут вдвое мощнее.Тензорные ядра на этот раз также в два раза мощнее, что побудило Nvidia иметь только четыре в каждом SM вместо восьми, как в Turing SM.
Мы уже были большими поклонниками RTX Voice, которую Nvidia теперь вышла из бета-версии и превратила в полнофункциональное приложение для вещания. Если RTX Voice удалил фоновый шум с вашего микрофона, Broadcaster удалит фон с вашей веб-камеры или добавит туман.
Чтобы сделать заднюю часть карты полностью радиатором, компания использовала более короткую многослойную печатную плату.Nvidia смогла установить вентилятор на задней панели видеокарты, всасывая холодный воздух через радиатор и из-за этого выталкивая его вверх и из корпуса.
Новый 12-контактный разъем питания присутствует, когда дело доходит до распределения питания. При изучении реальной производительности в тестах становится очевидным, что Nvidia GeForce RTX 3080 находится в отдельном классе, превосходя даже RTX 2080 Ti. RTX 3080 на 63 процента быстрее, чем RTX 2080 и на 26 процентов быстрее, чем 2080 Ti в 3DMark Time Spy Extreme, что является существенным скачком в поколении, учитывая, что RTX 2080 был всего на 40 процентов быстрее, чем GTX 1080, когда мы тестировали его в 2018 году. .
Успех Nvidia GeForce RTX 3080 увеличивает разницу в производительности между Nvidia и AMD на высоком уровне, в нескольких тестах более чем умножая эффективность самой мощной коммерческой видеокарты AMD, Radeon RX 5700 XT. AMD (Advanced Micro Devices) Если Big Navi попытается утвердить корону 4K, которую только что выиграла RTX 3080, ей предстоит тяжелая битва.
Стандарты производительности взорвутся на горизонте следующей волны игр. RTX 3080 намного мощнее графических процессоров, используемых в PS5 и Xbox Series X.
Плюсы
- Достаточно мощный для трассировки лучей и игр 4K
- Намного дешевле, чем RTX 2080 Ti
- Великолепный инновационный дизайн кулера
Минусы
- Может работать громко под нагрузкой
- 12-контактный адаптер питания уродлив
Ядра CUDA | 5888 |
Тактовая частота с ускорением | 1.5 ГГц |
VRAM | 8 ГБ GDDR6 |
Ширина интерфейса памяти | 256 бит |
Для всех пользователей Nvidia GeForce RTX 3070, без сомнения, является наиболее приемлемой графикой карта на рынке. Он предлагает стоимость, сравнимую с RTX 2080 Ti, менее чем за половину цены, что впервые делает игры 4K доступными для масс.
GeForce RTX 3070 обеспечивает невероятно плавный игровой процесс и результаты в разрешении 4K и с высокой частотой кадров при более низком разрешении, тест за тестом.RTX 3070 можно использовать, чтобы воспользоваться преимуществами дисплея 144 Гц 1080p без потери настроек вывода.
В таких играх, как «Ведьмак 3» и «Бэтмен: Рыцарь Аркхема», которые все еще интенсивно используют графические процессоры, это дало легендарные результаты.
Графический процессор Ampere GA104 поддерживает Nvidia GeForce RTX 3070. Основанный на той же архитектуре Nvidia Ampere, что и RTX 3080 и RTX 3090, этот графический процессор имеет 5 888 ядер CUDA, распределенных по 46 потоковой многопроцессорной обработке. Как и в случае с этими картами, здесь есть множество обновлений, как с точки зрения чистой производительности, так и с точки зрения энергоэффективности, которые продвигают эту мега-видеокарту к стандартам достижений, конкурируя только с лучшими видеокартами предыдущего поколения.
Наиболее существенное различие между Turing и Ampere состоит в том, что все тракты данных на потоковом мультипроцессоре (SM) теперь принимают рабочие нагрузки FP32, эффективно удваивая количество ядер CUDA на SM. Вот почему, несмотря на 36 SM, у RTX 2070 было всего 2304 ядра CUDA. Хотя RTX 3070 увеличивает количество SM только на 27%, он более чем вдвое увеличивает количество ядер CUDA, что приводит к значительному повышению эффективности необработанной растеризации.
Nvidia GeForce RTX 3070 также является единственной видеокартой в линейке Ampere, которая потребляет изрядное количество энергии с TGP 220 Вт, что на 100 Вт меньше, чем у RTX 3080.
Nvidia Broadcast — одна из наиболее примечательных особенностей здесь; он нацелен на игровых стримеров, но его полезность гораздо шире. Например, эта часть программного обеспечения будет использовать тензорные ядра AI для искажения или замены фона в видеозвонках, и это будет работать намного эффективнее, чем встроенные параметры в таких программах, как Zoom.
Несколько нововведений, таких как Nvidia Reflex и RTX IO, будут напрямую поддерживать геймеров. RTX IO, возможно, является наиболее важным, особенно с учетом предстоящих на горизонте PS5 и Xbox Series X, которые будут предлагать точный обмен информацией следующего поколения с помощью своих решений SSD.RTX IO от Nvidia будет работать в тандеме с готовящимся к выпуску Microsoft DirectStorage API, чтобы упростить доставку данных с SSD на GPU.
Когда игре требуется доступ к данным, она отправляет их из вашего хранилища в ваш ЦП, затем в машинную память, где они затем возвращаются в ваш ЦП на вашу видеокарту, прежде чем в конечном итоге попадут в вашу VRAM. Поскольку Nvidia GeForce RTX 3070 представляет собой флагманский продукт на рынке среднего и высокого класса, он представляет собой фантастическое оборудование.
Даже в таких сложных играх, как Horizon Zero Dawn и Red Dead Redemption 2, RTX 3070 обеспечивает исключительные результаты: последняя показывает 75 кадров в секунду при разрешении 1080p при максимальном максимальном значении MSAA.Учитывая, насколько утомителен симулятор Yee-Haw от Rockstar, это удивительно, особенно с учетом того, что RTX 2070 Super показывает только 57 кадров в секунду в том же тесте. Все это делает эту карту необычным подходом к своим пользователям.
Плюсы
- Скорость такая же, как у NVIDIA 2080 Ti
- Имеет такую же производительность сплошной трассировки лучей
- Имеет отличное охлаждение под нагрузкой
Заключение
В заключение мы подведем итоги этой нашей статьи, сказав, что видеокарта является наиболее важным компонентом в области редактирования, и если вы хотите повысить производительность, первое, что вам следует подумать об обновлении, — это ваша видеокарта, и пока вы используете After Effects, вам подойдет любая из этих видеокарт.
Часто задаваемые вопросы
Нужна ли After Effects хорошая видеокарта?
Видеокарта (GPU) За последние несколько лет компания Adobe все шире использует графические процессоры, но After Effects в целом гораздо больше зависит от скорости вашего процессора. Хотя важно иметь поддерживаемый GPU
Использует ли After Effects мой графический процессор?
Механизм рендеринга After Effects в значительной степени зависит от видеокарты вашего компьютера. Другой фактор, который играет важную роль при рендеринге, — это доступная оперативная память (ОЗУ) на вашем компьютере, поскольку процесс занимает много памяти.
лучших видеокарт для Adobe After Effects в 2018 году (сертифицированные графические процессоры)
Вы занимаетесь графическим дизайном и ищете лучшие решения для создания красивых произведений визуальной феерии. Adobe After Effects — это то, что вам действительно понравится. Однако, если вы хотите использовать Adobe After Effects для получения наилучших эффектов и функциональности, вам нужно будет инвестировать в правильное оборудование. Помимо опций аппаратного обеспечения, вам нужно будет приобрести графические карты, соответствующие вашим потребностям.Давайте посмотрим на лучшие видеокарты для After Effects 2018 сегодня.
Что такое Adobe After Effects 2018?
Ну, как мы уже упоминали во введении, Adobe After Effects — лучший инструмент, который поможет вам в создании 2D-слоев видеоряда (наложение, отслеживание, композитинг, переходы и анимация). Есть несколько приложений, к которым вы можете применить его, в зависимости от области вашей компетенции.
По сути, это приложение для цифровых визуальных эффектов, оно явно используется на этапах постпродакшна при производстве фильма или телешоу.Его также можно использовать для анимации. Он поставляется с несколькими приложениями — нелинейный редактор, аудиоредактор и транскодер мультимедиа — это несколько областей приложений, которые предлагает вам инструмент.
Какой графический процессор выбрать с Adobe After Effects?
Что ж, Adobe After Effects нуждается в ускорении графического процессора, но, помимо этого, вам понадобится мощный процессор с достаточным объемом оперативной памяти и более быстрым хранилищем.
По сути, требования к графическому процессору в After Effects не так очевидны.Вместо того, чтобы без надобности тратить деньги на видеокарты, было бы целесообразно использовать лучшую производительность процессора и оперативной памяти для лучшего опыта. Если вы хотите, чтобы мы были достаточно честными, мы будем считать, что почти все графические карты Nvidia и AMD совместимы с Adobe After Effects.
Adobe After Effects в большей степени использует процессор для рендеринга. GPU обычно используется только для рендеринга трассировки лучей. Простое правило, которому нужно следовать, — это искать количество ядер CUDA.Чем больше у вас будет, тем будет лучше.
Нам известно, что трассировке лучей уделяется большое внимание в линейке видеокарт RTX, о которых недавно анонсировала Nvidia. Конечно, это не означает, что он не будет поддерживаться на видеокартах старого поколения.
Лучшие видеокарты для Adobe After Effects в 2018 году
Имея эти знания в фоновом режиме, вот исходные данные для лучших видеокарт для ваших требований. В первую очередь мы сосредоточимся на видеокартах от Nvidia.
Quadro P6000
Проверить на Amazon Проверить на Newegg
Одна из самых профессиональных видеокарт от Nvidia, Quadro P6000 поставляется с архитектурой Pascal. Оснащенный полнофункциональным графическим процессором, он построен на графическом процессоре GP102.
Графическая карта имеет следующие характеристики —
- 3840 активных ядер
- Интерфейс памяти — 384 бит
- Пропускная способность памяти — 432 ГБ в секунду
- Потребляемая мощность — 250 Вт
- Графическая шина — PCI Express 3.0 x16
Он обеспечивает производительность вычислений с одинарной точностью до 12 терафлопс и поддерживает одновременное многоугольное проецирование. Оснащенный 24 ГБ памяти GDDR5X, он должен быть чудовищем с точки зрения производительности.
Quadro P5000
Проверить на Amazon Проверить на Newegg
Запущенный вместе с Quadro P6000, Quadro P5000 основан на графических процессорах GP104. Он имеет немного более низкую производительность — 9 терафлопс при вычислении одинарной точности.
Соответствующий набор функций включает
- 2560 активных ядер
- Интерфейс памяти — 256 бит
- Пропускная способность памяти — 288 ГБ в секунду
- Потребляемая мощность — 180 Вт
- Графическая шина — PCI Express 3.0 x16
У вас есть доступ к 16 Гб памяти GDDR5X и чуть меньший вес, чем у Quadro P6000.
Есть другие варианты?
Что ж, как мы неоднократно указывали, при выборе Adobe After Effects вы должны сосредоточиться на производительности ЦП и ОЗУ, а также на более быстрой совместимости с хранилищем, а не на графическом процессоре.Это поняло, что вы сделаете вывод, что множество текущих графических процессоров от крупных игроков, таких как Nvidia и AMD, обязательно будут поддерживаться. Основным требованием к графической карте в After Effects является реализация возможностей предварительного просмотра OpenGL. Теперь, когда даже базовые видеокарты имеют такую функциональность, мы считаем, что никогда не стоит беспокоиться о выборе правильного графического процессора, если вы ищете его только для Adobe After Effects.
Системные требования с официальной страницы Adobe указывают на это —
Необязательно — Сертифицированная Adobe карта графического процессора для графического ускорителя 3D-рендеринга с трассировкой лучей.Это само по себе должно указывать на тот факт, что Adobe After Effects не требует какой-либо конкретной видеокарты для правильной работы. Даже если у вас есть встроенная видеокарта вместе с процессором, в идеале она должна выполнять вашу работу.
С этой точки зрения мы думаем, что в вашем распоряжении множество решений и опций. Некоторые из практических приложений будут включать
. Если вы ищете другие альтернативы, кроме Nvidia, вы также можете рассмотреть следующие варианты от AMD:
Обратите внимание, что на официальной странице системных требований Adobe для After Effects указан довольно длинный список это охватывает почти весь спектр доступных в настоящее время видеокарт.Однако исследования показали, что видеокарты Nvidia работают немного лучше, чем видеокарты AMD, хотя разница незначительна.
Заключительные мысли
Что ж, на этом мы подошли к концу нашего обсуждения. Суть вопроса должна заключаться в том, чтобы практически любая основная видеокарта с минимальными стандартами, о которых говорилось выше, должна работать для правильной работы вашей установки Adobe After Effects. Позаботьтесь о том, чтобы разумно инвестировать в требования к процессору и оперативной памяти для полезных функций.
Мы также хотели бы добавить, что графические карты, которые мы перечислили выше (и некоторые из них были объяснены более подробно), являются единственными репрезентативными по своей природе. Вы можете использовать практически любую видеокарту, соответствующую минимальным стандартам.
Раскрытие информации для аффилированных лиц: Faceofit.com является участником партнерской программы Amazon Services LLC. Как партнер Amazon, мы зарабатываем на соответствующих покупках.
After Effects & Performance. Часть 10: Рождение графического процессора Крисом Зваром
Представляем графический процессор.За последние десять лет графический процессор или графический процессор, вероятно, добился большего прогресса, чем любой другой компонент системы. Графический процессор больше не просто «графическая карта», а мощное устройство совместной обработки, которое может значительно улучшить производительность все более широкого спектра программного обеспечения.
В части 5 мы представили центральный процессор, а в этой статье — графический процессор. Как и в части 5, есть несколько прямых ссылок на сам After Effects, и, опять же, многие из них являются историческими мелочами.Фактически, эта статья фактически заканчивается тем моментом, когда был придуман термин «графический процессор», так что это не столько введение в графический процессор, сколько предисловие или введение до момента, когда был выпущен первый графический процессор. Вам придется подождать следующей части, прежде чем мы сосредоточимся на том, как именно графический процессор повлиял на профессиональное графическое программное обеспечение, однако интересно понять, с чего все это началось. Кроме того, всем нравится история происхождения.
After Effects — это сложное графическое программное обеспечение, поэтому понимание взаимосвязи между After Effects и графическим процессором имеет решающее значение для понимания производительности.Графический процессор оказал огромное влияние на рабочие процессы 3D, поэтому естественно взглянуть на After Effects и задуматься о том, что происходит.
Помимо простого вопроса «какую видеокарту мне купить», GPU стал движущей силой развивающейся отдельной отрасли — трехмерной графики в реальном времени. В то время как средства визуализации, работающие не в реальном времени, такие как Redshift и Octane, берут существующие рабочие процессы и повышают производительность с помощью графических процессоров, 3D-движки в реальном времени могут полностью изменить весь производственный процесс.
Недавно закулисное видео на «The Mandelorian» было широко распространено, на сегодняшний день его просмотрели более 700 000 человек. Видео демонстрирует новую производственную технологию под названием «stagecraft», где светодиодные экраны объединяются с движком Unreal 3D для создания виртуальных фонов, устраняя традиционную роль хромакея. Это новый способ создания телевизионных шоу, который стал возможен благодаря достижениям в области графического процессора и технологий реального времени. Это яркий пример того, как графические процессоры оказали прямое влияние; не только на , какое программное обеспечение используется в пост-продакшене, но и на , как на самом деле создаются фильмы и телешоу .
Как человек, недавно разместивший серию из пяти частей о хромакее, я должен столкнуться с возможностью того, что через десять или двадцать лет сама хромакей как метод производства может устареть — благодаря графическому процессору.
В 1980-х годах, когда были выпущены первые видеокарты, их часто определяли просто по тому, сколько цветов они могли отображать. Для сравнения, современный графический процессор практически неузнаваем по сложности и мощности. История создания графических процессоров интересна и удивительна — и неизменно связана с компьютерными играми.
Современный графический процессор — это продукт двух разных миров. С одной стороны, это элитные, эксклюзивные, высокопроизводительные суперкомпьютеры, а с другой — компьютерные игры, в которые обычные люди играют на дешевом оборудовании.
Вначале была тьма Популярная аркадная игра Asteroids — отличный пример аналогового векторного дисплея. Очень ранние компьютеры не имели графических процессоров, потому что у них не было графики или экранов для их отображения. Многие ранние примеры компьютерных дисплеев были основаны на аналоговой векторной графике, очень известный пример — игра «астероиды».Эти ранние векторные дисплеи имели уникальный внешний вид и подходили для монохромного текста и линий, но они не подходили для тех типов компьютерной графики общего назначения, которые мы знаем сегодня.
Хотя многие исследователи работали над концепцией цифровой графики, стоимость производства чего-либо была непомерно высокой до начала 1970-х годов.
Технически «нормальный» способ разработки видеочипа для компьютера — использовать буфер кадра. Идея состоит в том, что изображение на экране хранится в области специальной памяти, причем один или несколько битов памяти используются для представления каждого пикселя экрана.Таким образом, изображение на экране является прямым представлением битов, хранящихся в памяти. Если это звучит знакомо, то это потому, что это в основном то же самое, что и любое другое изображение. В частях 2 и 3 этой серии мы рассмотрели, что именно делает After Effects (объединяет растровые изображения) и как эти изображения хранятся в памяти. Буфер кадра — это просто особая область памяти, которая преобразуется в видеосигнал. Видеочип сканирует память много раз в секунду и преобразует биты в выходной сигнал, который может отображаться на мониторе.
Теоретически это было нормально, но возникла проблема. Как мы видели в части 3, изображения могут занимать много памяти, а в 1970-е годы память была феноменально дорогой. Даже когда в 1970-х годах появились настольные компьютеры, высокая стоимость памяти ограничила коммерческую привлекательность компьютерной графики. До того, как в 1975 году был выпущен первый коммерческий продукт, исследователям, которым требовался буфер кадра, обычно приходилось создавать свои собственные. «Система изображения» имела разрешение 512 x 512 пикселей в оттенках серого и стоила 15 000 долларов.
В наши дни мы настолько привыкли к дорогим и мощным графическим процессорам, что трудно представить время, когда центральный процессор фактически управлял дисплеем. В 1970-х повседневные телевизоры работали с аналоговыми радиочастотными сигналами (это то, что на самом деле называли PAL и NTSC: аналоговые радиочастотные сигналы), и у нескольких технологических компаний были продукты, которые преобразовывали тактовые импульсы от центрального процессора в телевизионный сигнал. Это ни в коем случае не были «графические чипы», а просто схема, которая принимает цифровой сигнал и выводит аналоговый, хотя и тот, который вы могли бы увидеть, если бы подключили телевизор.
Гоночная балка Культовый Atari 2600, который был продан более 30 миллионов единиц.Примерно в то же время Atari изо всех сил пыталась развить свой успех, выпустив аркадную игру «Pong». Pong был хитом, но, как и все аркадные игры того времени, он работал на уникальном, нестандартном оборудовании, которое было разработано и построено исключительно для игры в Pong. Разработка аркадных автоматов, на которых можно было бы играть только в одну игру, была дорогостоящей и рискованной, поэтому Atari стремилась создать недорогую игровую консоль для дома, на которой можно было бы играть во многие разные игры.В Atari назвали проект «VCS 2600», но они столкнулись с очень реальной проблемой в поиске компонентов, которые были достаточно дешевыми, чтобы сделать его осуществимым. Аркадная игра, в которой используется только одна игра, будет построена на настраиваемом оборудовании для отображения. Но если приставка проектировалась для игры во множество разных игр на одном и том же дисплее (например, на телевизоре), тогда требовалась более универсальная графическая система. Но теоретическое решение — буфер кадра — было слишком дорогим.
Википедия кратко резюмирует проблему:
Экономичное решение«Во время разработки 2600 оперативная память была чрезвычайно дорогой, стоила десятки тысяч долларов за мегабайт.Типичный дисплей с разрешением 320 на 200 пикселей и даже с одним битом на пиксель потребует 8000 байт памяти для хранения буфера кадра. Это не подойдет для платформы, которая должна стоить всего несколько сотен долларов. Даже резкое снижение разрешения не снизит стоимость памяти до разумного уровня. Вместо этого команда разработчиков решила полностью удалить фреймбуфер на основе памяти ».
Atari заключалось в том, чтобы избежать необходимости в буфере полного кадра, используя достаточно оперативной памяти только для одной строки экрана за раз.ЦП будет использоваться для обработки оперативной памяти, необходимой для каждой строки развертки, как раз вовремя, чтобы она была нарисована на экране. Не было буфера кадра, в котором хранилось бы все изображение на экране. Вместо этого инструкции от ЦП были преобразованы в аналоговый видеосигнал в реальном времени. Стоит отметить, что чип, который сделал это возможным, был разработан инженером Atari по имени Джей Майнер, который всплывает позже.
«Racing the Beam» дает прекрасное представление о том, насколько безумно сложно было разрабатывать игры для Atari 2600, потому что не хватало памяти для обычного буфера кадра.Atari 2600 имел разрешение, которое было примерно эквивалентно 160 x 192 пикселей, поэтому для рисования одного кадра ЦП должен был остановить то, что он делал 192 раза, и обработать ОЗУ для следующей строки экрана, прежде чем начать заново для следующего кадра. В некоторой степени правильно сказать, что Atari 2600 не имеет графического процессора , по крайней мере, в обычном цифровом смысле. Один инженер описал это как больше похоже на видеосхему, которая постоянно обрабатывается центральным процессором.
Хотя это позволило сэкономить на стоимости памяти, программирование 2600 было чрезвычайно затруднено. Поскольку процессор тратил большую часть времени на рисование экрана, для запуска игр не оставалось много вычислительной мощности. Полную информацию можно найти в отличной книге «Гонки на луче», в которой рассказывается об истории Atari 2600 и технических проблем, которые она ставила.
МОП, Ал, Боб и ВикApple II, выпущенный на несколько месяцев раньше, чем Atari 2600, был первым персональным компьютером с цветной графикой.Как и в Atari 2600, для управления дисплеем использовался центральный процессор, а на выходе подавался телевизионный радиосигнал.
В Atari 2600 и Apple II использовались процессоры, изготовленные по технологии MOS, компания по разработке и производству микропроцессоров, которая, в свою очередь, принадлежала Commodore. Глава отдела чипов Эл Шарпантье был рад успеху, достигнутому их процессорами с Atari и Apple II, но был разочарован тем, как была реализована графика. Он решил, что MOS разработает специальный графический чип как более технически совершенную альтернативу простым аналогово-цифровым схемам, которые использовались Atari и Apple.Они назвали проект VIC, сокращенно от Video Interface Chip.
После нескольких неудачных прототипов компания MOS Technology произвела свой чип VIC — все, что им нужно было сделать, это пойти и найти людей, которые его купят. К сожалению, это никого не заинтересовало. Хотя изначально они надеялись, что Atari будет использовать его в дополнении к 2600, у Atari был собственный инженер — тот же Джей Майнер — работавший над собственными пользовательскими видеочипами. Это был огромный шаг вперед по сравнению с примитивными схемами, использовавшимися в Atari 2600, и они будут включены в новую игровую консоль Atari, а также в линейку настольных компьютеров.
К концу 1970-х годов персональные компьютеры только начинали набирать популярность и были нацелены на рынок малого бизнеса. К тому времени, когда вы купите компьютер, монитор, дисководы и принтер, у вас будет несколько тысяч долларов. Основным приоритетом было запускать программное обеспечение для бизнеса, такое как VisiCalc. Для этих людей цветная графика не была приоритетом, было важнее, чтобы они могли отображать не менее 40 столбцов текста, если не 80, даже если он был монохромным.
Главным преимуществом чипа VIC было то, что он мог воспроизводить композитное видео в цвете, с компромиссом в том, что он отображал только 22 столбца очень короткого текста. Несмотря на то, что Commodore преуспела со своей линейкой компьютеров «PET», объемный текст чипа VIC сделал его непригодным для любого компьютера, ориентированного на бизнес.
Цвет И механизмЕдинственный человек, который, казалось, искренне восхищался чипом VIC, был молодой студент инженерного факультета по имени Боб Яннес, который использовал чип VIC в качестве основы для своего старшего проекта.Он получил высшее образование и поступил на работу в Commodore, и одна из его задач заключалась в том, чтобы попытаться продать чип VIC потенциальным клиентам. Яннес собрал несколько основных компонентов и запасных частей вместе в качестве технической демонстрации, буквально в своей спальне, которая продемонстрировала графические возможности чипа VIC. Это не был полноценный компьютер — на нем не было операционной системы, он не мог загружать программы, его вся цель заключалась в том, чтобы запустить разовую демонстрацию, демонстрирующую функции цвета и прокрутки VIC. Но он был маленьким, у него был цветной рисунок и клавиатура, и он был подключен к телевизору.
Если бы британский разработчик по имени Клайв Синклер не основал свою собственную компьютерную компанию, то, вероятно, это был бы конец истории. Микросхему VIC не удалось бы найти покупателя, и в конечном итоге она исчезла бы из истории. Но он это сделал, и в 1980 году Синклер выпустил ZX-80. Что отделяло ZX-80 от всех других узнаваемых компьютеров того же времени — Commodore PET, Apple II и TRS 80 — это цена. В то время как Apple II с дисковыми накопителями мог стоить тысячи, ZX-80 стоил всего 200 долларов.ZX-80 был маленьким, у него не было звука, он мог отображать только монохромный текст, а экран мигал черным каждый раз, когда вы нажимали клавишу. Клавиатура была ужасной, да и вообще ZX-80 немного хреновый. Но все же при такой цене Sinclair открыл новый рынок без конкуренции.
Commodore не знала, что существует рынок дешевых, немного паршивых компьютеров, поэтому они внезапно начали искать продукт, который мог бы конкурировать с ZX-80. Техническая демонстрация Боба Яннеса, созданная из запчастей в его спальне, отвечала всем требованиям.Всего за несколько месяцев он был кардинально преобразован в серийную модель — Commodore Vic 20. Благодаря чипу VIC у Commodore был домашний компьютер, который мог конкурировать с Sinclair по цене, но с полноцветной графикой и звуком. Это был хит.
Нет, изображение не растягивается. Чип VIC мог отображать цветную графику за счет очень объемного текста. Но благодаря ZX-80 (справа) он нашел свое место в Commodore Vic 20 (в центре).Vic 20 был первым персональным компьютером, проданным 1 миллион единиц.Commodore продал за 6 месяцев больше, чем общее количество Apple II, проданных на сегодняшний день. Казалось, широкой публике понравилась дешевая красочная графика. Успех Vic 20 привел непосредственно к Commodore 64 с улучшенной графикой и звуком, а C64 остается единственным самым продаваемым компьютером всех времен.
В то время как существовал очень значительный рынок для более дорогих компьютеров для бизнеса, многие из которых отображали только монохромный текст, успех Commodore был обусловлен дешевой красочной графикой на домашних компьютерах, на которых можно было играть в игры.
Несмотря на финансовый успех и Commodore, и Atari, существовали всевозможные проблемы управления и внутриполитическая борьба. Точно так же, как Commodore была самой успешной компьютерной компанией на планете, большая часть их команды разработчиков уехала работать в Atari, а многие из команды Atari перешли в Commodore.
Джей Майнер, волшебник-инженер, стоящий за более ранними графическими чипами Atari, покинул Atari за несколько лет до политической драмы. После перерыва он присоединился к стартапу по разработке новой игровой платформы и стал ведущим дизайнером.Commodore, теперь без команды разработчиков и без новых продуктов на горизонте, купила компанию и превратила то, что могло быть игровой консолью, в свою следующую линейку компьютеров: Amiga.
Блиты и каплиAmiga не полагалась на центральный процессор для обработки всей графики. Джей Майнер разработал набор специализированных сопроцессоров, способных обрабатывать продвинутый звук и графику. Первоначальный прототип Amiga назывался «Lorraine», а три специальных сопроцессора назывались Paula, Agnus и Denise.В то время как Дениз была основным видеопроцессором, у Agnus был особый трюк, сыгравший важную роль в графической производительности Amiga: блиттер. Блиттер был сокращением от «передачи блочного изображения», и, говоря простым языком, он означал, что Agnus мог очень быстро перемещать большие блоки памяти, , без использования CPU .
Как мы видели ранее, большие блоки памяти — это именно то, что представляют собой растровые изображения, и поэтому «блиттер» позволил Amiga обрабатывать изображения и анимацию намного быстрее, чем любой компьютер, который полагался только на центральный процессор.Блиттер мог самостоятельно перемещать области экрана или независимо анимировать множество объектов (их называли «объектами блиттера» или «каплями»). Хотя это было очень полезно для аркадных игр, это также дало заметный прирост производительности пользовательскому интерфейсу. К тому времени, когда была выпущена Amiga, Apple выпустила первый Macintosh, а Microsoft работала над первой версией Windows. Отслеживание всех окон на экране пользователя и перемещение их с помощью мыши создавало дополнительную нагрузку на ЦП — если только вы не использовали Amiga, и в этом случае всю тяжелую работу выполнял Agnus.
Даже лучше, чем настоящаяВ качестве примера того, насколько мощным был блиттер, Amiga могла эмулировать программное обеспечение Apple и запускать его быстрее, чем «настоящий» Mac с тем же процессором. Несмотря на то, что есть накладные расходы на эмуляцию другого компьютера, специальный набор микросхем Amiga освободил процессор от необходимости обрабатывать графику и звук. Это компенсировало дополнительные накладные расходы на эмуляцию Macintosh. Так что, если у вас был Apple Mac, работающий на частоте 10 МГц, и Amiga, имитирующая Apple Mac, также с процессором 10 МГц, Amiga была на самом деле быстрее.
Поскольку специальные чипсеты в Amiga были фундаментальной частью дизайна, Agnus, Denise и их преемники не могут считаться «видеокартами» в том смысле, в каком мы их знаем сейчас. Однако они доказали полезность выделенных сопроцессоров для снятия нагрузки с основного процессора. И снова Amiga добилась успеха на рынке компьютерных игр — в конце концов, эти нестандартные чипы изначально предназначались для игровой консоли.
Несмотря на безудержный успех Commodore 64, казалось бы, бесконечный поток неудачных управленческих решений оставил Commodore неспособным конкурировать с Apple Macintosh и IBM PC.В то время как Amigas изначально были известны своими превосходными графическими возможностями, Commodore не смогла поддерживать разработку уникальных чипсетов Amiga, и к началу 1990-х годов 3 rd партийных «видеокарт» для IBM PC и Apple Macintosh могли отображать более высокое разрешение. и больше цветов, даже если им не хватало тех же способностей к анимации.
Знайте свои GA: CGA, EGA, MDA, VGA и так далее…
Ранние графические решения для настольных ПК не назывались «видеокартами», и многие из них не могли даже отображать графику — только текст.Выпускаемые продукты обычно назывались «контроллерами видеодисплея» или «графическими адаптерами» и представляли собой более продвинутые версии простых аналогово-цифровых схем Apple II и Atari 2600. Хотя эти продукты подключались к компьютеру, как современные видеокарта, у них не было возможности совместной обработки.
Хорошим индикатором рынка настольных компьютеров в настоящее время являются два видеопродукта, выпущенные IBM в 1981 году. IBM выпустила видеоконтроллеры «MDA» и «CGA», где M означает монохромный, а C означает цветной.Более популярным был монохромный вариант. Контроллер «VGA», выпущенный в 1987 году, стал новым стандартом с разрешением 640 x 480 с возможностью выбора 16 цветов, и даже сегодня телевизоры и видеопроекторы используют разъемы VGA.
Первая подключаемая «видеокарта» была выпущена IBM в 1984 году и фактически состояла из 3 отдельных печатных плат, включающих дополнительный ЦП. В отличие от простого контроллера видеодисплея CGA, это был полный цифровой буфер кадра с возможностями совместной обработки, который мог отображать 640 x 480 пикселей с 256 цветами.Однако по цене более 4000 долларов он не продавался.
Несмотря на выдающееся положение Amiga в нише видео для настольных ПК, следующий заметный прорыв случится в 1991 году, когда S3 выпустила первую видеокарту для ПК с поддержкой 2D-ускорения. Мощность блиттера Amiga наконец-то добралась до мира ПК.
В то время как оригинальная «трилогия» успешных домашних компьютеров была нацелена на рынок малого бизнеса, коммерческий успех домашнего компьютера был обусловлен дешевой, красочной графикой и играми.Но хотя Vic 20 был первым компьютером, который продавался на K-mart (и в магазинах игрушек), обратная сторона истории происхождения GPU началась в совершенно другом мире.
Игрушки для больших мальчиковРеволюция настольного видео была революцией, потому что обычные настольные компьютеры заменяли суперкомпьютеры, которые стоили в 100 раз дороже. Эта революция — повторяющаяся тема во многих моих старых статьях, поэтому вместо того, чтобы повторяться, я просто поделюсь некоторыми ссылками:
Революция настольного видео демонстрирует, насколько пост-продакшн ТВЦ в 1997 году радикально отличался от пост-продакшена ТВЦ в 2014 году.Он великолепен, на создание которого у меня ушло много времени, поэтому, пожалуйста, посмотрите его.Подобные темы обсуждались в популярной статье «Mograph проходит период полового созревания», опубликованной на сайте Motionographer.
Но хотя я много писал о настольном компьютере , сторона революции настольного видео, я мало писал о традиционных онлайн-пакетах, которые были заменены. Индустрия видеофильмов и телевидения так сильно изменилась за последние 20 лет, что легко забыть, какой она была раньше.В конце концов, когда вы в последний раз записывали видео на пленку?
Сейчас мы уверенно приближаемся к 2020 году, только три разные компании разрабатывают наиболее распространенные процессоры: Intel и AMD для настольных компьютеров и ARM для мобильных устройств. Исторически сложилось так, что другие компании разрабатывали конкурирующие процессоры с разной философией дизайна, нацеленные на разные рынки. В 1970-х, 1980-х и 1990-х годах было несколько компаний, производящих высокопроизводительные процессоры, в том числе Sun, MIPS (принадлежит Silicon Graphics), DEC, IBM и Motorola.Каждая из этих компаний разрабатывала собственные процессоры для использования на своих компьютерах, и все эти конкурирующие платформы были несовместимы друг с другом.
Ряд процессоров, разработанных и изготовленных разными компаниями.В 1980-х и 1990-х годах единственной компанией, которая стала синонимом высококачественного видеопроизводства, графики и визуальных эффектов, была Silicon Graphics. Silicon Graphics, или SGI, успешно создали вокруг своего бренда ауру и благоговение, с которыми с тех пор редко можно было сравниться.Недавно я просматривал этот канал YouTube, посвященный старым компьютерам SGI, и мне было интересно узнать, наконец, фактов, фактов об этих мифических машинах, о которых обычно упоминали только приглушенным шепотом и слухами об их миллионе- долларовые ценники. Когда я опубликовал свою оригинальную серию о Desktop Video Revolution, один читатель быстро прислал мне электронное письмо, в котором сообщил, что его компания потратила 3 миллиона долларов на установку и оснащение пакета Inferno. Сравните это со стоимостью iMac и подписки Creative Cloud, и вы поймете, почему переход на настольные компьютеры был революционным.
(Я слышал о людях, просматривающих учебные материалы по After Effects в ускоренном режиме, но если вы перейдете на канал Dodoid, вам почти придется их замедлить, потому что этот парень может говорить!)
Область компьютерной 3D-графики в 1980-х годах быстро развивалась, хотя в основном это были инженерные разработки и САПР, а не визуальные эффекты. В то время как у Silicon Graphics была самая известная торговая марка, другие компании, такие как Sun, DEC, Hewlett Packard и IBM, также производили высокопроизводительные рабочие станции «миникомпьютеры» и разрабатывали свои собственные решения для 3D-графики.
Большое разнообразие компьютерного оборудования и типов процессоров усложняло работу разработчиков программного обеспечения, поскольку им приходилось писать определенные версии своего программного обеспечения для каждого отдельного компьютера. Это было не только пустой тратой усилий, но и риском фрагментации рынка множеством конкурирующих решений. Даже сегодня есть приложения, которые доступны только для Windows, а не для Mac, и наоборот, поэтому вы можете себе представить, насколько это было сложно, когда было намного больше платформ, чем те две, которые есть сегодня.
Открытие дверейБыло признано, что необходим отраслевой стандартный язык программирования для трехмерной графики, который упростил бы разработчикам программного обеспечения поддержку различных типов компьютеров. Было просто невозможно полностью переписать каждый пакет программного обеспечения для каждого процессора и операционной системы, представленных на рынке.
Краткая версия заключается в том, что Silicon Graphics взяла свой существующий закрытый язык, названный Iris GL, и использовала его в качестве основы для нового открытого стандарта под названием Open GL.Open GL был первоначально запущен примерно в 1991 году и продолжает поддерживаться (но не развивается) по сей день.
Проще говоря,Open GL — это язык, а не аппаратное обеспечение. (Для целей данной статьи неважно, является ли Open GL API или языком. Я часто путаю термины.)
Open GL предоставил разработчикам программного и аппаратного обеспечения общую основу для работы с трехмерной графикой. Разработчикам программного обеспечения не нужно было писать разные версии своего программного обеспечения для разных компьютеров, им просто нужно было написать одну версию, использующую Open GL.Все производители компьютеров могут добавить собственную поддержку Open GL, обеспечивая совместимость на всех платформах.
Основной целью Open GL было создание унифицированного инструмента для разработки трехмерной графики, и одной из его сильных сторон оказалась документация. Целевым рынком для Open GL были разработчики программного обеспечения в то время, когда в центре внимания 3D-графики были САПР, инженерия и научная визуализация. Open GL был общепринятым стандартом программирования 3D-графики, но не содержал никаких спецификаций того, как эти команды должны выполняться.Каждая отдельная вычислительная платформа должна была включать поддержку Open GL.
Ускорение в SilicoКак упоминалось в Части 5, одним из способов повышения производительности микропроцессора является добавление уникальных инструкций для функций, для выполнения которых в противном случае требуется комбинация множества различных инструкций. Создавая микросхему, которая может делать что-то «в кремнии», можно добиться огромного прироста производительности. В части 5 я использовал в качестве примера FPU, модуль с плавающей запятой для десятичных вычислений.Функция «квадратного корня» может быть вычислена с помощью FPU намного быстрее, чем CPU, который должен пройти через сложный алгоритм.
Изначально обработка и рендеринг команд Open GL выполнялись центральным процессором компьютера — то, что мы называем «программным рендерингом». Но как только спецификации Open GL были окончательно согласованы и стандарт был запущен, производители оборудования могли разрабатывать и создавать собственные чипы для более быстрой визуализации графики Open GL.
Давай сыграем в игру?В 80-х и начале 90-х годов разработка 3D-графики велась на дорогих «мини-компьютерах» уже упомянутых компаний — SGI, Sun, DEC, IBM и так далее.В 1984 году фильм «Последний истребитель» включал 27 минут компьютерной 3D-анимации, визуализированной на суперкомпьютере Cray. На момент создания Cray X-MP был самым быстрым суперкомпьютером в мире, а самым продаваемым настольным компьютером в том же году был Commodore 64. Суперкомпьютер Cray стоил около 15 миллионов долларов, а Commodore 64 стоил около 300 долларов. .
В 1984 году самым мощным компьютером, который вы могли купить, был Cray X-MP (слева), а самым продаваемым компьютером был Commodore 64 (справа).Cray стоил 15 миллионов долларов, а Commodore — около 300 долларов. Но Cray был достаточно большим, чтобы на нем можно было сидеть, поэтому его можно было использовать как диван, что было приятно.Возможно, это неверно, но мне однажды сказали, что когда создавался Last Starfighter, во всем мире было только два Cray X-MP. Один использовался NORAD для управления системой противоракетной обороны США, другой использовался для 3D-анимации. Даже если это неправда, это хорошая история, которая подчеркивает, насколько требовательна 3D-анимация.
Перенесемся примерно через десять лет после рендеринга «Последнего истребителя» на Cray, и все еще оставалась огромная пропасть в цене и производительности между дешевыми домашними компьютерами и чрезвычайно дорогими «миникомпьютерами».Silicon Graphics «Onyx», выпущенная в 1993 году, стоила около 250 000 долларов, в то время как их «Infinite Reality Engine», выпущенный в 1996 году, стоил более 600 000 долларов.
Разделение по классам Если вам нужно было спросить, сколько стоит один из них, вы не могли себе этого позволить.К концу 1980-х несколько человек в SGI начали рассматривать потенциал 3D-оборудования, разработанного для домашних компьютеров, но проблема заключалась не только в чистой производительности. Настоящая проблема заключалась в том, что рынок домашних компьютеров был совершенно отдельным миром по сравнению с рынком высокопроизводительных мини-компьютеров.В 1996 году домашний компьютер мог стоить несколько тысяч долларов, в то время как самая мощная машина Silicon Graphics стоила более полумиллиона долларов.
SGI как компания не интересовалась рынком домашних компьютеров, и ее деятельность просто не позволяла производить недорогую продукцию. Их самые дешевые машины по-прежнему стоят десятки тысяч долларов. Однако они знали, что одним из способов расширения своего бизнеса было бы проникновение на рынок бытовой электроники, что привело бы к гораздо большему объему продаж.Целью было не создание недорогого компьютера для продажи населению, а создание собственных уникальных процессоров — чипов MIPS, используемых другими компаниями.
В начале 1990-х SGI начала разработку недорогого процессора, который, по их мнению, идеально подошел бы для домашней игровой консоли. SGI не собиралась разрабатывать и продавать консоли самостоятельно; они просто хотели продать процессоры тому, кто это сделал. После встречи с представителями различных компаний, которые имели опыт работы с игровыми консолями, SGI стала партнером Nintendo.Много лет спустя результатом была бы Nintendo 64.
В то время как Nintendo 64 в конечном итоге оказалась успешной, SGI была компанией, которая просто не подходила для продажи недорогих продуктов напрямую потребителям. SGI разработала ЦП и графический процессор, используемые в Nintendo 64, но именно Nintendo разработала консоль и купила ее на рынке несколько лет спустя. Чтобы писать игры для Nintendo 64, разработчикам приходилось покупать у SGI комплекты разработки, которые стоили от 100 000 до 250 000 долларов.
С точки зрения SGI, Nintendo 64 имела успех по нескольким направлениям: во-первых, они добились массовых продаж своих чипов MIPS, во-вторых, каждый разработчик, который хотел писать для нее игры, должен был купить один из своих наборов разработчика за 100 000 долларов. Наконец, маркетинговая кампания Nintendo 64 повысила престиж и репутацию бренда Silicon Graphics. Это была беспроигрышная ситуация.
Хотя SGI начала работу над недорогим процессором за много лет до того, как Nintendo 64, наконец, была выпущена как продукт, проект усилил ориентацию компании на рынок high-end сегмента, не обращая внимания на недорогие домашние компьютеры.В конце концов, зачем пытаться продавать компьютер за 1000 долларов, когда у вас выстраивались очереди разработчиков, чтобы купить их за сотни тысяч?
Производство остановленоВ Silicon Graphics работало несколько опытных людей, которые считали иначе. Они были увлечены трехмерной графикой и считали, что существует рынок экономичных решений для настольных ПК.
К 1992 году Скотт Селлерс, Росс Смит и Гэри Таролли покинули SGI и основали стартап под названием Pellucid с намерением вывести 3D-графику на рынок ПК.Пеллюцид оказался ценным полигоном для обучения, но без особого успеха. Компания Pellucid представила первый ускоренный кадровый буфер с высоким разрешением для ПК. Названный «ProGraphics 1024», он предлагал разрешение 1280 x 1024 с 8-битным цветом примерно за 1000 долларов. При такой цене высокая стоимость памяти была серьезной проблемой.
Более ценные уроки преподнесли их бывшие работодатели в SGI. Silicon Graphics адаптировала графические платы для своей линейки миникомпьютеров Iris для работы с IBM PC.Первоначально это было сделано как инструмент внутренней отладки, прежде чем они увидели потенциал для того, чтобы стать коммерческим продуктом. Однако, как упоминалось ранее, Silicon Graphics просто не имела опыта работы на потребительском рынке начального уровня и не знала, что с этим делать. Pellucid вмешался и лицензировал технологию у SGI, продав их как 3D-карты «IrisVision» примерно по 4000 долларов каждая. Плата IrisVision, возможно, была первой картой 3D-ускорения для рынка ПК — если не первой, то одной из первых.
В то время как Pellucid произвела 2000 плат IrisVision и продала каждую из них, они осознали важность наличия программной поддержки для нестандартного оборудования. Плата IrisVision поддерживалась только 3 приложениями, включая Flight Simulator.
Pellucid добился ограниченного успеха в своем набеге на компьютерную графику, и этого было достаточно, чтобы их перехватил промышленный гигант Media Vision. Media Vision были огромной и феноменально успешной компанией, которая производила «мультимедийные» комплекты для ПК, объединяя вместе видеокарты, звуковые карты и приводы компакт-дисков.Ребята из Pellucid предложили разработать 3D-чип, предназначенный для игр на ПК, и изначально Media Vision казалась отличной средой для разработки. Однако была одна небольшая проблема, и она заключалась в том, что Media Vision управлялась преступниками, которые «готовили книги». Почти в одночасье Media Vision рухнула, и трое бывших сотрудников SGI начали искать новую работу.
Гордон Кэмпбелл был инженером, много лет проработавшим в Intel, прежде чем уйти и основать собственную компанию по разработке микропроцессоров.В какой-то момент в 1994 году он обнаружил, что берет интервью у Росс Смита, но описывает это как «худшее интервью, которое я когда-либо давал». Кэмпбелл понял, что Смита не особо интересовала его работа, поэтому он спросил его, чем он действительно хочет заниматься. Смит сказал ему, что он и двое его коллег хотели основать компанию по 3D-графике. Кэмпбелл был на борту и назначил еще несколько встреч. Вместе четверо из них — трое бывших сотрудников SGI и один из Intel — основали новую компанию и назвали ее 3dfx.Но следующим шагом было решить, что делать.
Оборудование жесткоеХотя ребята покинули SGI, потому что считали, что существует рынок 3D для недорогих настольных ПК, их опыт в Pellucid помог им понять, с какими техническими препятствиями они столкнулись.
Что касается аппаратного обеспечения, то главной проблемой было разнообразие различных, конкурирующих аппаратных стандартов между настольными ПК. В отличие от сегодняшнего дня, когда все карты расширения представляют собой некоторую форму PCI, в 80-х и начале 1990-х годов существовало несколько конкурирующих стандартов шины.Раньше компьютеры использовали шину ISA для размещения карт расширения, но это было довольно примитивное и недружелюбное решение. В 1987 году IBM выпустила собственную обновленную шину расширения под названием MCA — однако это был закрытый частный стандарт. Это побудило других производителей запустить собственные альтернативы ISA, включая EISA и VESA.
Реальность этого означала, что к началу 1990-х было по крайней мере четыре конкурирующих аппаратных шины, и это было большой головной болью для разработчиков оборудования, особенно производителей материнских плат.Рынок карт расширения столкнулся с фрагментацией, что увеличило риски и затраты на разработку для производителей.
В то же время память по-прежнему была очень дорогой, что накладывало верхний предел дешевизны видеокарты. Это было серьезной проблемой при попытке произвести массовый недорогой продукт для массового рынка.
Наконец, было программное обеспечение. Вернее, программного обеспечения не было. В 1994 году никто не писал программное обеспечение для 3D-графики для ПК. Без программного обеспечения не было бы рынка 3D-видеокарт.
Но даже разработка программного обеспечения в 1994 году была проблематичной. Microsoft и Intel агрессивно подталкивали разработчиков к грядущей операционной системе «Windows 95», в то время как большинство игр писалось для старой DOS. Это было так давно, что младшие читатели могут быть удивлены, узнав, что было время, когда не все ПК действительно работали с Windows. Windows 95, выпущенная в 1995 году, была, по сути, запуском новой операционной системы. Это была поистине важная попытка убедить всех, кто использует Microsoft DOS, — большую часть делового мира — перейти на совершенно новый продукт.
DOS работал, DOS был безопасен. DOS была тем, к чему все привыкли. Конечно, Microsoft ясно дала понять, что хочет, чтобы все перешли на Windows 95, но не было никакой гарантии, что люди это сделают. Разработчики рисковали потратить время и деньги на написание игр и приложений для Windows 95 только для того, чтобы обнаружить, что никто ими не пользуется.
1994 был очень рискованным годом для выхода на рынок настольных ПК с новым аппаратным продуктом.
ДайтонаНо была еще одна отрасль, которая преуспевала.
Я потратил больше времени и денег, чем должен был, играя в Daytona в пабах.Помимо домашних ПК, аркадные игры по-прежнему были огромным бизнесом, приносившим более высокие годовые доходы, чем голливудские фильмы. Годом ранее Sega выпустила «Daytona» и «Virtua Fighter», обе из которых имели новаторскую трехмерную графику и обе имели огромный успех. Другие разработчики аркад искали решения для создания 3D-графики того же качества, что и Sega.
Команда 3dfx посетила выставку аркадных игр и сразу увидела потенциальный рынок сбыта.По сравнению с работой, которую они проделали в SGI, нынешнее состояние 3D-графики в аркадных играх было дилетантским. Во многих аркадных играх, включая все игры, созданные Midway и Atari, использовались процессоры MIPS — привычная территория для бывших сотрудников SGI. Они решили, что разработают дополнительную карту расширения для рынка аркадных игр, которая будет отображать 3D-графику.
Всего за несколько лет Playstation 1 (вверху) и Nintendo 64 (внизу) уничтожили индустрию аркадных игр. Продукт, который основатели 3dfx помогли реализовать, в конечном итоге убил их собственный бизнес.Теперь, когда у них был план, они нашли венчурное финансирование и приступили к разработке своей первой микросхемы. Они назвали его «Вуду». Первоначально они добились успеха, поскольку компании-аркадные компании, включая Atari, Midway, Capcom, Konami и Taito, выпускали игры, в которых использовались чипы Voodoo для 3D-графики.
Но хотя 1994 год был годом основания компании 3dfx, это был также год, когда Sony выпустила Playstation 1. Первая Playstation была продана более чем в 100 миллионов единиц. В 1996 году за ней последовала Nintendo 64, которая была продана более 30 миллионов единиц.Всего за несколько лет эти чрезвычайно популярные домашние игровые приставки уничтожили индустрию аркадных игр. В очередной раз публика проявила аппетит к дешевой красочной графике и играм.
По иронии судьбы, именно их работа над недорогой 3D-графикой побудила команду покинуть Silicon Graphics. Теперь продукт, который они помогали разрабатывать, — Nintendo 64 — привел к упадку их собственных клиентов. 3dfx нуждался в новом рынке.
Гибель, но не мракДо 1992 года домашние компьютерные игры были в основном 2D — включая такие жанры, как платформеры, игры с горизонтальной прокруткой и стрельбой, а также файтинги на основе спрайтов.Но в 1992 году курс компьютерных игр изменился навсегда, когда небольшая компания под названием id выпустила условно-бесплатную игру под названием «Wolfenstein 3D» и познакомила мир с «шутером от первого лица». Технически Wolfenstein был не «настоящим» 3D, а просто очень умными преобразованиями в 2D, но никого, кто играл в игру, не заботило, как рендерится графика. Они просто хотели расстрелять нацистов. Wolfenstein была первой игрой в совершенно новом жанре.
Мировой отклик на Wolfenstein 3D был феноменальным.После успеха Wolfenstein главный гуру программирования id — Джон Кармак — разработал более совершенный графический движок. Он был разработан для типичных домашних компьютеров с тактовой частотой процессора около 25 МГц и без FPU. Хотя движок рендеринга был более сложным, чем в Wolfenstein, это все же не совсем настоящее 3D. id использовала новый движок рендеринга в своей следующей игре «Doom», выпущенной в 1993 году. Цитата из Википедии:
Считается одной из самых значительных и влиятельных игр в истории видеоигр за то, что она помогла стать пионером ныне повсеместного шутера от первого лица.
id навсегда изменил ход компьютерных игр и сосредоточил внимание разработчиков игр на шутерах от первого лица с 3D-графикой.
Через год после того, как «Doom» стала популярной среди домашних ПК, Sony выпустила первую консоль «Playstation», которая включала аппаратную поддержку для рендеринга 3D-полигонов. Оборудование Playstation было ограничено, но оно продемонстрировало первый шаг в поддержке 3D-графики с помощью недорогих специализированных процессоров. Недавнее видео Ars Technica о разработке «Crash Bandicoot» проливает свет на примитивные технологии и проблемы, с которыми сталкиваются разработчики игр, работающие с оборудованием, продаваемым за 400 долларов.Устная история на Polygon.com также дает отличное представление о том, как создавались эти ранние игры — главный персонаж Crash Bandicoot был смоделирован всего с 532 полигонами. Когда была выпущена первая игра Tomb Raider, Лара Крофт была построена всего из 230 полигонов, но она была настолько хорошо построена, что быстро собрала армию поклонников.
Очевидно, значение имел не размер количества многоугольников, а то, что вы с ними делали.
У ранних игровых консолей было очень ограниченное оборудование для рендеринга 3D, но игры по-прежнему пользовались огромной популярностью.Согласно YouTube-каналу A + Start, в первой игре Crash Bandicoot главный герой состоял из 532 полигонов. У Лары Крофт был поистине впечатляющий набор многоугольников, хотя у нее их было всего 230. Ознакомьтесь с A + Start для получения дополнительной информации о низкополигональных историях. Переход к ПКПрошло всего несколько лет с тех пор, как 3dfx обратила свое внимание на аркадные игры, но с упадком индустрии они искали новый продукт.
Популярность Wolfenstein и Doom на домашних компьютерах укрепила их веру в существование рынка 3D-графики для домашних компьютеров.Playstation имела огромный успех, хотя ее аппаратная поддержка 3D-графики была очень грубой. Такие игры, как Crash Bandicoot и Tomb Raider, стали хитами, несмотря на их технические ограничения.
К счастью, за эти несколько лет в домашних компьютерах произошли фундаментальные изменения. Windows 95 была запущена Microsoft и оказалась успешной. Что еще лучше для геймеров, требования к производительности Windows 95 побудили миллионы пользователей покупать новые компьютеры с процессором Pentium.Новые системы Pentium имели две функции, которые имели непосредственное отношение к трехмерным играм: Pentium был первым процессором, который имел встроенный FPU во всех моделях, а новые системы Pentium использовали стандартную шину PCI. Разработчикам оборудования больше не нужно было выбирать для поддержки одну из нескольких конкурирующих шин, поскольку PCI стала отраслевой нормой — Apple также перешла на шины PCI в 1997 году.
Наконец, в 1996 году стоимость оперативной памяти резко упала, а вместе с ней и последний барьер для разработки 3D-видеокарты для домашнего ПК.3dfx смогла сместить акцент с аркад на компании, разрабатывающие игры для домашних ПК.
Преодолев аппаратные препятствия, они столкнулись со следующим препятствием — разработкой программного обеспечения. Изучив свой опыт работы с Pellucid, они знали, что, если бы разработчики игр не были заинтересованы в поддержке своего 3D-оборудования, у их продукта не было бы рынка.
Когда Silicon Graphics выпустила Open GL в 1991 году, разработчики программного и аппаратного обеспечения высокого класса имели открытый стандарт для 3D-графики, но Open GL не повлиял на домашние компьютеры.Этого не ожидалось. Как упоминалось ранее, основным направлением развития 3D-технологий в 1980-е гг. Было проектирование, САПР и научная визуализация. Эти отрасли предъявляли строгие требования к точности и точности 3D-рендеринга, и выполнение этих технических требований было более важным приоритетом, чем скорость. Open GL успешно выполнил задачу создания единого стандарта для разработчиков программного обеспечения, но он не был разработан для быстрого рендеринга.
И наоборот, Playstation оказалась огромным успехом, несмотря на примитивный 3D-рендеринг.Было ясно, что людей, играющих в игры, больше заботит отзывчивость и скорость рендеринга системы, чем такие вопросы качества, как количество полигонов, сглаживание, освещение и текстурирование и так далее. Обдумав, чего, по их мнению, хочет широкая публика, и сопоставив это со стоимостью разработки оборудования, 3dfx решила, что Open GL не подходящее решение для игр на домашних ПК. Однако другой альтернативы не было, поэтому команда решила создать свою.
3dfx начал с API Open GL, который все они хорошо знали со времен Silicon Graphics.Затем они урезали его и оптимизировали, чтобы сосредоточиться на скорости рендеринга. Целью было создание нового 3D-языка, предназначенного для игр. Они назвали свой новый язык «Glide» — даже написали его «GLide», чтобы подчеркнуть связь с Open GL — и в нем был ряд функций, которые сделали его особенно простым в использовании для программистов и разработчиков игр. Процесс разработки GLide во многом опирался на предыдущий опыт команды в SGI, разработав более дешевый чипсет, который нашел свое место в Nintendo 64.
Версия3dfx были не единственной компанией, которая предлагала дешевый 3D-рендеринг на ПК. Их главным конкурентом была компания Rendition, которая в 1995 году выпустила чип под названием V1000. Хотя 3dfx была компанией, основанной бывшими сотрудниками SGI, многие из основателей Rendition пришли из Sun. V1000 использовался в ряде видеокарт, выпущенных в 1995 и 1996 годах, что представило концепцию 3D-ускорения на рынке настольных ПК. Точно так же, как 3dfx разработала собственный проприетарный язык 3D под названием GLide, у Rendition также был свой язык под названием RRedline.Как и 3dfx, Rendition продавала концепцию 3D-ускорения игровой индустрии, и был выпущен ряд игр, в которых использовалась карта Rendition.
Дрожит, как квакерский овес при землетрясенииВсего за несколько лет id навсегда изменила курс компьютерных игр, и после феноменального успеха Doom появилось огромное количество ожиданий и ажиотажа вокруг их следующей игры — Quake. В отличие от Wolfenstein и Doom, движок рендеринга, разработанный Джоном Кармаком для Quake, был основан на истинной трехмерной геометрии, что означает, что он был идеальным кандидатом для аппаратного трехмерного ускорения.
Компания3dfx представила свою платформу GLide игровым компаниям до того, как они начали производить какие-либо чипы, и фактически проводили презентации с использованием моделирования на рабочей станции SGI за 250 000 долларов. При разработке микросхем они обнаружили, что даже со всеми оптимизациями, которые они сделали с их новым языком GLide, чипу потребуется столько транзисторов для обработки трехмерной графики, что не хватит места и для поддержки двухмерной графики. Это означало, что их первый чип для домашних ПК должен был быть чисто трехмерным.Хотя это была радикальная концепция, она действительно упростила маркетинг продукта — у него была одна цель и одна цель: ускорить 3D-графику для игр. Это также сняло бремя совместимости 2D-графики с Windows 95, что стало долгожданным облегчением для команды 3dfx. Этот подход сильно отличался от конкурирующей графической карты Rendition, которая была «нормальной» 2D-видеокартой, которая также предлагала 3D-ускорение. Поскольку 100% доступных транзисторов в карте Voodoo были предназначены для ускорения 3D, это всегда было более мощным вариантом.
Джон Кармак, возможно, самый популярный разработчик игр на планете, поначалу, казалось, отказывался от аппаратного ускорения. Первоначальный движок Quake был чисто программным средством рендеринга. Но у него сложились прочные отношения с сообществом разработчиков, и один из инженеров 3dfx смог продемонстрировать Кармаку, как Quake будет работать с аппаратным ускорением. Кармак вошел в совет консультантов 3dfx, хотя и не был его сотрудником.
Кармак также согласился помочь с версией Quake, которая была ускорена для 3D-видеокарты Verite от Rendition.Два разработчика Verite работали над портом при прямой поддержке со стороны программного обеспечения id. Результат, названный «vQuake», был выпущен к Рождеству 1996 года и обеспечил долгожданный сезонный рост продаж. Это была первая версия Quake с 3D-ускорением, однако Кармак счел очень неприятным использование проприетарного графического API Rendition. Этот неудачный опыт побудил его отказаться от проприетарных API в будущем и поддерживать только открытые стандарты. Это означало, что не было GLide-версии Quake, хотя Кармак тесно сотрудничал с 3dfx.
Кармак, как известно, использовал рабочую станцию NeXT для разработки, но искал новые альтернативы. Во время тестирования рабочей станции SGI он портировал простой рендерер уровней на OpenGL, а вскоре и полную игру. В обширном сообщении в блоге от декабря 1996 года Кармак разъяснил свои взгляды на ускоренные 3D-игры, включая следующие примечания:
Я использую OpenGL около шести месяцев, и меня очень впечатлил дизайн API, и особенно его простота использования.Месяц назад я портировал quake на OpenGL. Было очень приятно…
… Я надеюсь, что производители, поставляющие карты второго поколения в ближайший год, смогут убедить их в поддержке OpenGL. Если этого не произойдет на раннем этапе, и есть способные карты, на которых glquake не работает, я прошу прощения, но я занимаю небольшую позицию в своем маленьком уголке мира в надежде оказать небольшое влияние на то, что будет влиять на нас на долгие годы.
Джон Кармак, декабрь 1996 г.
Несмотря на то, что для ПК, поддерживающих OpenGL, не существовало ни одной видеокарты, Id Software выпустила OpenGL-версию Quake в январе 1997 года, через два месяца после того, как vQuake был выпущен для карт Rendition.
Quake GL, выпущенный в январе 1997 года.На самом деле это не было плохой новостью для 3dfx. Благодаря тому, как был разработан чип Voodoo, и благодаря наследию команды OpenGL, 3dfx смогла быстро разработать программный патч, который позволил QuakeGL работать на их картах Voodoo, даже несмотря на то, что QuakeGL не использовал API GLide. Компания Rendition вытеснила их на рынок, но как только карты Voodoo начали поставляться, не было никаких сомнений в том, какая карта обеспечивает лучшую производительность.
Менее чем через месяц после запуска QuakeGL лучший способ играть в Quake был с картой Voodoo.Разрыв в производительности между QuakeGL на карте Voodoo и vQuake на карте Rendition тоже был не маленьким. В то время как известные компании-производители видеокарт начали добавлять 3D-функции на свои 2D-видеокарты, они не были такими мощными, как специализированные 3D-процессоры на картах Voodoo. Как ни странно, казалось, что геймерам понравилась идея о том, что единственной целью карты Voodoo было ускорение 3D-игр, а отсутствие поддержки 2D фактически повысило их репутацию.
Излишне говорить, что Quake стал мировым хитом, и карты Voodoo разлетелись с прилавков.В течение нескольких коротких лет карты Voodoo доминировали в индустрии 3D-игр, и каждая новая версия предлагала более мощное оборудование и лучшую игровую производительность.
Директива 3Первоначальный ассортимент карт Voodoo был настолько феноменально успешен, что прочно вошел в историю вычислительной техники, но не все шло по плану на 100%. Компания 3dfx приложила немало усилий, чтобы разработать собственный проприетарный язык GLide, а карты Voodoo были в основном аппаратными ускорителями GLide.Когда они начали работать над GLide, альтернативы не было — Open GL не был разработан для игр, и никакие игры не были написаны с поддержкой Open GL. Идея заключалась в том, что GLide будет предлагать такое преимущество в производительности, что игровая индустрия примет GLide и встроит поддержку карт Voodoo в свои игры. Поскольку 3dfx была единственной компанией, производящей карты Voodoo, они получали прибыль от геймеров, готовых платить за максимально возможную производительность.
Но Джон Кармак совершил ошибку, проигнорировав GLide в пользу его старшего брата, Open GL.В то время как Кармак использовал лишь небольшую часть полного языка Open GL, который неофициально назывался «mini GL», Quake была игрой очень высокого уровня, и он оказал большое влияние. Open GL был открытым стандартом — это то, о чем говорилось в слове Open, в то время как GLide — нет. Хотя компания 3dfx быстро разработала патч для Quake GL для их карт Voodoo, факт остается фактом: Quake GL не был написан для поддержки GLide. Любой другой производитель оборудования мог разрабатывать и выпускать свою собственную видеокарту, ускоряющую Open GL, без каких-либо проблем с лицензированием или сборов.Хотя Quake GL была самой первой игрой для ПК, поддерживающей Open GL, это все же означало, что 3dfx теперь столкнулась с конкуренцией со стороны чего-то бесплатного, а с этим трудно конкурировать.
Примерно в то же время Microsoft выпустила Windows 95 — чрезвычайно важный продукт, призванный заменить устаревшую DOS. Но Microsoft столкнулась с проблемой: разработчики игр изначально сочли, что с Windows 95 намного сложнее работать. Microsoft столкнулась с некоторыми ранними и очень неприятными проблемами совместимости с играми, созданными для Windows 95, и отчаянно пыталась наладить связи с игровой индустрией.Хотя сейчас это трудно представить, но для Microsoft не было никакой гарантии, что Windows 95 будет успешной. Microsoft знала, что им необходимо привлечь разработчиков игр, потому что никто не перешел бы на Windows 95, если бы все последние игры работали только на DOS. Им нужно было упростить разработчикам игр написание игр для Windows 95, а также гарантировать совместимость с широким спектром аппаратного обеспечения ПК.
РешениеMicrosoft представляло собой набор новых Windows API (функции программирования, в целом сопоставимые с языком), специально адаптированных к потребностям разработчиков игр, все с использованием префикса «Direct».Это включало Direct3D, эквивалент Open GL в Microsoft Windows. После того как Microsoft полностью поддержала Direct3D (и другое семейство API-интерфейсов Direct), все сообщество Windows получило легкий доступ к трехмерной графике. Когда Direct3D завоевал популярность на рынке, производители видеокарт начали включать оборудование для ускорения рендеринга Direct3D, а также Open GL.
Лучше, быстрее, плавнее
В начале 1990-х годов видеокарты для повседневных настольных компьютеров взяли на себя инициативу по сравнению с функцией блиттера Amiga и начали предлагать 2D-ускорение.Это помогло ускорить такие вещи, как перетаскивание окон по экрану. Но теперь у видеокарт появилась новая цель — ускорять 3D-игры. Знаменитые игровые франшизы, такие как Quake и Unreal, познакомили мир с концепцией «3D-видеокарты», и другие производители быстро вышли на рынок.
Именно компьютерные игры, а не САПР, инженерия или высококачественные визуальные эффекты, привели к разработке 3D-видеокарт для домашних компьютеров.
3dfx помогла внедрить оборудование для 3D-графики на домашних компьютерах, но их язык GLide был проприетарным, и изначально они не лицензировали его другим производителям оборудования.В отсутствие значительной конкуренции, кроме Rendition, разработчики игр изначально добавили поддержку карт GLide и Voodoo на основе взаимовыгодных отношений. Однако, поскольку Microsoft агрессивно разрабатывает Direct3D, а другие производители оборудования могут свободно разрабатывать поддержку Open GL без лицензирования, популярность API GLide быстро упала, а вместе с ней и продажи карт Voodoo. Почти так же быстро, как они появились на сцене и стали доминировать в индустрии 3D-игр, 3dfx попала в немилость и объявила о банкротстве.
3dfx был куплен другим разработчиком видеокарт, nVidia. nVidia конкурировала с 3dfx в течение нескольких лет, и их карта Riva TNT в 1998 году была заметно популярна. В 1999 году nVidia выпустила свою новейшую карту под названием GeForce 256.
GeForce 256 была относительно дорогой картой для того времени, и она включала ряд новых функций, которые nVidia заявила, что они революционны, включая аппаратное ускорение текстуры и освещения. Однако игры должны были быть специально написаны, чтобы воспользоваться этими функциями, поэтому старые игры не показали заметных улучшений с новой картой.В некоторых случаях старые карты Voodoo могли превзойти Geforce 256 даже в более новых играх, поэтому реакция игрового сообщества была немного приглушенной.
Но GeForce 256 заняла свое место в истории по двум причинам, и она остается важной вехой в развитии 3D-ускоренной графики.
Первая причина — это внедрение аппаратного ускорения текстуры и освещения. Хотя в 1999 году это могло не впечатлить из-за отсутствия поддержки, продолжающееся развитие аппаратного обеспечения T&L привело непосредственно к революционной GeForce 8, выпущенной в 2006 году.
Вторая причина — простой маркетинг. В то время как некоторые технические журналисты не видели непосредственных преимуществ аппаратного T&L, nVidia активно продвигала свою новую технологию. GeForce 256 была не просто графической картой, это был первый в мире «графический процессор ».
nVidia выпустила первый графический процессор.
Вот он на коробке. Слова «Графический процессор». С выпуском GeForce 256 nVidia вышла за рамки простых видеокарт и подарила нам первый графический процессор.Это 15 часть из продолжительной серии статей об After Effects и Performance. Вы читали другие? Они действительно хорошие и очень длинные:
Часть 1: В поисках совершенства
Часть 2: что на самом деле делает After Effects
Часть 3. Цифры до конца
Часть 4: Узкие места и автобусы
Часть 5: Знакомство с процессором
Часть 6: Начались, основные войны…
Часть 7: Знакомство с AErender
Часть 8: Многопроцессорность (вроде как)
Часть 9: Холодный жесткий кеш
Часть 10: Рождение GPU
Часть 11: Рост GPGPU
Часть 12: Загадка Quadro
Часть 13: Годы пустыни
Часть 14: Сделайте это быстрее, бесплатно
Часть 15: Мнения третьих сторон
И, конечно, если вам понравилась эта серия, у меня есть более десяти лет статей о After Effects, которые нужно просмотреть.Некоторые из них тоже действительно длинные!
Adobe After Effects PC Build 2021 для анимированной графики
Adobe’s After Effects — замечательное программное обеспечение для анимационной графики и 2D-анимации для фильмов и видео в медиа и индустрии развлечений. Это ресурсоемкое приложение, и поэтому вам нужна правильно настроенная сборка ПК After Effects для повышения эффективности в производственной среде.
В этой статье мы рассмотрим, что вам нужно знать, чтобы создать подходящую рабочую станцию для Adobe After Effects.
Рекомендуемые сборки для ПК After Effects Сборка
ПОСЛЕ ЭФФЕКТА AMD PC BUILD
Предварительный просмотр | Товар | Рейтинг | Цена | |
---|---|---|---|---|
12-ядерный настольный компьютер AMD Ryzen 9 5900X с 24-поточной разблокировкой… | 1619 отзывов | 628,99 долл. США | Посмотреть на Amazon | |
ZOTAC Gaming GeForce RTX 3070 Ti AMP Holo 8GB GDDR6X 256-бит… | 63 отзыва | 1170,00 долл. США | Посмотреть на Amazon | |
Внутренний жесткий диск Seagate BarraCuda 3 ТБ HDD — 3.5 дюймов … | 71433 отзыва | 79,99 долл. США | Посмотреть на Amazon | |
Sabrent 512 ГБ Rocket NVMe PCIe M.2 2280 Внутренний SSD, высокий … | 16727 отзывов | 74,98 долл. США | Посмотреть на Amazon | |
Corsair Vengeance LPX 16 ГБ (2 x 8 ГБ) DDR4 DRAM 3000 МГц C15… | 66803 отзыва | 74,99 долл. США | Посмотреть на Amazon | |
Модульный модуль Corsair CX Series 550 Вт с сертификатом 80 Plus Bronze… | 13720 отзывов | 39,41 долл. США | Посмотреть на Amazon | |
Материнская плата MSI MAG X570 TOMAHAWK WIFI (AMD AM4, DDR4, PCIe… | 795 отзывов | 250,00 долларов США | Посмотреть на Amazon | |
Комбинированная беспроводная клавиатура и мышь Logitech MK270 — клавиатура… | 53612 отзывов | 24,99 долл. США | Посмотреть на Amazon | |
Корпус Corsair Carbide Series 100R Mid Tower, черный | 10881 отзыв | 45 долларов.97 | Посмотреть на Amazon | |
27-дюймовый монитор Dell UP2716D со светодиодной подсветкой | 256 отзывов | 599 долларов.99 | Посмотреть на Amazon | |
будь спокоен! Dark Rock Pro 4, BK022, 250 Вт TDP, процессорный кулер | 10107 отзывов | 89 долларов.90 | Посмотреть на Amazon |
Последнее обновление 2021-10-15 / Партнерские ссылки / Изображения из Amazon Product Advertising API
ПОСЛЕ ЭФФЕКТОВ INTEL PC BUILD
Предварительный просмотр | Товар | Рейтинг | Цена | |
---|---|---|---|---|
Процессор Intel Core i7-10700K для настольных ПК от 8 ядер до 5.1 ГГц … | 2571 отзыв | 325,77 долл. США | Посмотреть на Amazon | |
ZOTAC Gaming GeForce RTX 3070 Ti AMP Holo 8GB GDDR6X 256-бит… | 63 отзыва | 1170,00 долл. США | Посмотреть на Amazon | |
Внутренний жесткий диск Seagate BarraCuda 3 ТБ HDD — 3.5 дюймов … | 71433 отзыва | 79,99 долл. США | Посмотреть на Amazon | |
Sabrent 512 ГБ Rocket NVMe PCIe M.2 2280 Внутренний SSD, высокий … | 16727 отзывов | 74,98 долл. США | Посмотреть на Amazon | |
Corsair Vengeance LPX 16 ГБ (2 x 8 ГБ) DDR4 DRAM 3000 МГц C15… | 66803 отзыва | 74,99 долл. США | Посмотреть на Amazon | |
Модульный модуль Corsair CX Series 550 Вт с сертификатом 80 Plus Bronze… | 13720 отзывов | 39,41 долл. США | Посмотреть на Amazon | |
ASUS Prime Z590-A LGA 1200 (Intel 11-го / 10-го поколения) ATX… | 163 отзыва | 263,71 долл. США | Посмотреть на Amazon | |
Комбинированная беспроводная клавиатура и мышь Logitech MK270 — клавиатура… | 53612 отзывов | 24,99 долл. США | Посмотреть на Amazon | |
Корпус Corsair Carbide Series 100R Mid Tower, черный | 10881 отзыв | 45 долларов.97 | Посмотреть на Amazon | |
27-дюймовый монитор Dell UP2716D со светодиодной подсветкой | 256 отзывов | 599 долларов.99 | Посмотреть на Amazon | |
будь спокоен! Dark Rock Pro 4, BK022, 250 Вт TDP, процессорный кулер | 10107 отзывов | 89 долларов.90 | Посмотреть на Amazon |
Последнее обновление 2021-10-15 / Партнерские ссылки / Изображения из Amazon Product Advertising API
СТАТЬЯ ПО ТЕМЕ
Сборка ПК для Adobe Creative Suite — Полное руководство
Эти сборки ПК для Adobe Creative Suite — то, что вам нужно, чтобы вывести рабочий процесс на новый уровень.
Системные требования After Effects 2020+
Эти требования применяются к Adobe After Effects 2020 в будущем.
Системные требования Windows для Adobe After Effects
Процессор | Intel или AMD, многоядерный |
RAM | 16 ГБ. Рекомендуется 32 ГБ |
GPU | NVIDIA или AMD GPU с объемом видеопамяти не менее 2 ГБ, рекомендуется 4 ГБ и выше. |
ОС | 64-разрядная операционная система Windows 10 (версия 1903 или более поздняя. Версия 1607 не поддерживается) |
Хранилище | Требуется 15 ГБ.Для установки требуется дополнительное хранилище. Для дисковой кеш-памяти требуется до 64 ГБ. |
Дисплей | Требуется монитор с разрешением Full HD. |
Сеть | Доступ к сети требуется для активации продукта и регистрации в дополнение к доступу к онлайн-службам. |
Системные требования macOS для Adobe After Effects
Процессор | Многоядерный процессор Intel и Apple Silicon (поддерживается Rosetta2) |
RAM | 16 ГБ.Рекомендуется 32 ГБ |
GPU | NVIDIA или AMD GPU с объемом видеопамяти не менее 2 ГБ, рекомендуется 4 ГБ и выше. |
ОС | macOS версий 10.14, 10.15 или macOS Big Sur 11.0 и новее. |
Хранилище | 15 ГБ свободного места на жестком диске для установки; во время установки требуется дополнительное свободное пространство (невозможно установить на том, который использует файловую систему, чувствительную к регистру , или на съемные устройства флэш-памяти) Дополнительное дисковое пространство для дискового кэша (рекомендуется 64 ГБ +) |
Дисплей | 1440 × 900 или больше, разрешение дисплея |
Сеть | Подключение к Интернету и регистрация необходимы для обязательной активации программного обеспечения, подтверждения подписок и доступа к онлайн-сервисам. |
Наиболее важные компоненты для ПК After Effects, сборка
Вот некоторые из наиболее важных компонентов, которые вам следует выделить больше всего ресурсов для сборки After Effects для ПК. Давайте посмотрим на эти компоненты.
ЦП (процессор)
Adobe After Effects отлично работает с 64-битным процессором с высокой тактовой частотой. Многоядерный процессор с гораздо более высокой тактовой частотой обеспечит лучшую производительность в After Effects.Приложение также может использовать несколько ядер (есть специальный параметр, который использует преимущества многопоточности в меню настроек After Effects).
Однако он не может использовать более 16 ядер, потому что после того, как эта производительность достигнет максимума, любые дополнительные ядра не будут иметь большого значения. Вот почему 64-ядерный процессор Threadripper не окажет заметного влияния на производительность.
Что касается платформ, то процессоры Intel и AMD отлично справляются с After Effects, хотя Ryzen 9 5950X предлагает выдающуюся производительность.С другой стороны, ценным ЦП Ryzen является Ryzen 5 5600X.
Что лучше для After Effects — Intel или AMD?
На самом деле не существует «лучшей» платформы с точки зрения производительности, поскольку в игру вступает множество других факторов, таких как скорость ОЗУ, тактовая частота процессора, тип хранилища и количество ядер вашего процессора. Любой процессор с высокой тактовой частотой должен работать нормально независимо от платформы.
СТАТЬЯ ПО ТЕМЕ
Лучшие планшеты для рисования с цифровой графикой
Вот лучшие планшеты для рисования для художников и графических дизайнеров.Руководство по покупке включено.
Может ли i5 запускать After Effects?
Возможно. Самым важным фактором здесь является тактовая частота. Процессор i5 с тактовой частотой 3,8 ГГц будет работать лучше, чем процессор с меньшей тактовой частотой. Однако вы увидите лучшую производительность с процессором i7 или i9. В самых последних процессорах i5 включена многопоточность, что должно повысить производительность в After Effects.
Может ли i3 запускать After Effects?
Да, но звездной производительности от процессора i3 ждать не стоит.After Effects требует многоядерного процессора, но проблема здесь в том, что процессоры i3 имеют гораздо более низкую тактовую частоту, чем процессоры i5, i7 или i9. Намного лучше приобрести процессор i7 или i9 для сборки After Effects.
Что важнее для After Effects: ЦП или ГП?
Очевидно, что при работе After Effects центральный процессор важнее, чем графический процессор. Приложение зависит от процессора для активной работы, в то время как графический процессор используется только для трассировки лучей и обработки эффектов с ускорением на графическом процессоре.Вы должны выделить значительную часть своего бюджета на приобретение высокопроизводительного процессора.
Может ли Pentium запускать After Effects?
Pentiums не подходят для работы After Effects. Фактически, приложение не будет работать на процессоре Pentium, потому что Pentium — это микросхемы с низким энергопотреблением и официально не поддерживаются After Effects. Вам следует подумать о приобретении процессора Core i7 или i9 для After Effects.
Вам нужен хороший компьютер для After Effects?
Хорошо — термин в этом отношении относительный.Что делает «хорошим» ПК для After Effects, так это компьютер, отвечающий минимальным требованиям для работы After Effects. Хороший ПК в этом случае — это только тот, на котором действительно может удовлетворительно работать After Effects.
Будет ли мой компьютер работать после эффектов?
Да, если он соответствует минимальным системным требованиям. Эти требования включают следующее: многоядерный процессор, не менее 16 ГБ ОЗУ (рекомендуется 32 ГБ), не менее 2 ГБ или более совместимая с Open GL видеокарта, не менее 16 ГБ памяти плюс 60 ГБ для кэширования и дисплей Full HD.
СТАТЬЯ ПО ТЕМЕ
Лучшая конфигурация для графического дизайна
Создайте ПК для графического дизайна, соответствующий требованиям завтрашнего дня, на любой бюджет
RAM
Хорошо, давайте посмотрим правде в глаза. Adobe After Effects — это приложение, которое требует много памяти. Это результат постоянного кэширования видеоряда, которое приложение сохраняет на диске каждый раз, когда вы загружаете проект. Adobe Mercy Playback Engine требует, чтобы приложение кэшировало временную шкалу для плавного воспроизведения во время загрузки проекта.
Это означает, что After Effects всегда занимает огромную часть оперативной памяти вашей системы. Фактически, вы можете указать процент оперативной памяти вашей системы, доступной для приложений Adobe, включая After Effects.
Весьма поучительно убедиться, что на вашем компьютере установлено как минимум 16 ГБ ОЗУ, хотя лучше всего иметь 32–64 ГБ ОЗУ.
По правде говоря, независимо от того, насколько мощна ваша система, редактирование и манипулирование эффектами тяжелого отснятого материала может фактически задействовать ресурсы вашей системы, включая оперативную память.
Можно ли удалить кеш After Effects?
Удаление кеша After Effects приведет к очистке сохраненных превью, хранящихся на жестком диске. Это означает, что при следующем запуске After Effects приложение создаст новый набор кешей на жестком диске для плавного воспроизведения при работе с вашим проектом.
Может ли 4 ГБ ОЗУ запустить After Effects?
№ 4 ГБ слишком мало для удобного запуска After Effects CC. Однако, если вы используете гораздо более старые версии After Effects, такие как After Effects CS2 или версия 7, этого достаточно.After Effects CC — это приложение, требовательное к оперативной памяти, которому требуется большой объем оперативной памяти для кэширования предварительных изображений проектов.
Сколько оперативной памяти требуется для Adobe After Effects?
Официально для работы After Effects требуется не менее 16 ГБ ОЗУ. Рекомендуемый объем ОЗУ составляет 32 ГБ, а 64 ГБ дают вам большой запас для выполнения масштабных проектов с тяжелыми эффектами без проблем с производительностью. Кроме того, вы можете настроить After Effects для использования всей доступной памяти.
Почему After Effects использует так много оперативной памяти?
After Effects требует много оперативной памяти для оптимальной работы, и значительный объем этой оперативной памяти используется для кэширования изображений и создания превью во время работы над проектом.Из-за этого вы должны убедиться, что ваша сборка ПК After Effects имеет достаточно оперативной памяти, по крайней мере, 16 ГБ или еще лучше 32 ГБ.
СТАТЬЯ ПО ТЕМЕ
Лучшая сборка ПК для редактирования видео — все бюджеты
Видеомонтаж на ПК Руководство по сборке для любого бюджета с рекомендациями…
графический процессор
After Effects больше склоняется к ЦП, чем к графическому процессору с точки зрения производительности, главным образом потому, что, как и любое другое настольное приложение, ЦП — это то место, где выполняются вычисления при обработке проекта.
Таким образом, приложение полагается на графический процессор для предварительного просмотра и кэш изображений для плавного воспроизведения. Кроме того, After Effects использует графический процессор для трассировки лучей — функцию, появившуюся несколько лет назад в наборе инструментов After Effects.
На производительность графического процессора влияет количество вычислительных блоков или ядер CUDA на кристалле графического процессора; чем выше, тем лучше. Однако есть предвзятость в пользу карт NVIDIA для лучшей производительности. Это не означает, что карты AMD не поддерживаются.Они есть.
Лучшим выбором графического процессора для After Effects являются RTX 3060 Ti и RTX 3070. Эти карты предлагают лучшее соотношение цены и производительности. Если вы хотите чего-то лучшего, выбирайте RTX 3080.
А как насчет конфигураций двух GPU? After Effects их не использует. Он может использовать только один из них. Однако, если вы собираетесь использовать свой компьютер для рендеринга графического процессора в 3D-приложениях, вы можете выбрать вариант с двумя графическими процессорами.
Какая видеокарта лучшая для After Effects 2020?
Лучшая видеокарта для After Effects 2020 — это RTX 3070, обеспечивающая отличную производительность по отличной цене.В качестве альтернативы вы можете выбрать RTX 3060 Ti для большей стоимости. Запуск After Effects на RTX 3090 не оправдан, потому что вы не увидите значительного увеличения производительности по сравнению с более ранними картами.
Достаточно ли графической карты 2 ГБ для After Effects?
Нет. Видеокарты на 2 ГБ достаточно для предварительного просмотра проекта. Тем не менее, вы начинаете бить потолок с точки зрения производительности, когда добавляете несколько тяжелых эффектов. Для лучшей производительности рекомендуется выбрать карту с 4 ГБ или более видеопамяти.
Может ли After Effects работать без видеокарты?
Нет. Для правильной работы After Effects требуется совместимая видеокарта. Однако, если вы принудительно запускаете его на неподдерживаемой видеокарте или без нее, все будет работать с центральным процессором, создавая большую нагрузку на ваш процессор, с пониженной производительностью и большим отставанием. Получите подходящий графический процессор с самого начала.
Подходит ли GTX 1650 для After Effects?
GTX 1650 отлично работает в After Effects, если вы редактируете видео в формате Full HD, хотя вы будете серьезно ограничены при редактировании видео 4K с добавлением некоторых интенсивных эффектов.Карта — хороший бюджетный вариант для тех, у кого мало денег.
СТАТЬЯ ПО ТЕМЕ
Build a Music Production PC 2021 — Полное руководство
Хотите создать домашнюю музыкальную студию, вот наше руководство по созданию ПК для создания музыки.
Хранилище
Вам потребуется быстрое хранилище для хранения файлов проекта, например, скоростной накопитель NVMe. NVM предлагают значительное повышение производительности по сравнению с твердотельными накопителями и обычными механическими жесткими дисками.
Вы можете настроить быстрый NVMe в качестве загрузочного диска и другой NVMe в качестве хранилища для кэша After Effects и файлов проекта. Это будет способствовать быстрому рабочему процессу в After Effects.
Монитор
Подходящий монитор для работы в After Effects должен точно и согласованно передавать цвета. Держитесь подальше от игровых мониторов, потому что они не рассчитаны на точность цветопередачи.
Градация и сопоставление цветов — это некоторые типичные рабочие процессы в After Effects, и, поскольку ваш монитор определенно должен соответствовать, чтобы передавать точные цвета.
Вкратце, мы рекомендуем IPS-монитор с матовой поверхностью, глубиной цвета 8 бит и размером экрана не менее 24 дюймов. Обычно подойдет один монитор, но вы можете пойти дальше, подключив два из них с помощью креплений VESA сзади для повышения производительности.
Заключительные мысли
Вот и все! Сборка ПК для After Effects не должна составлять большого труда. Однако, оказывается, не забудьте сообщить нам об этом в комментариях.Ознакомьтесь с другими руководствами и обзорами, чтобы узнать больше.
Спасибо, что заглянули.
БОЛЬШЕ
ВСЕ СТАТЬИ
- Об авторе
- Просто чтобы вы знали!
Моя страсть к компьютерному оборудованию — моя самая большая мотивация.Я люблю технологии и то, как они могут сделать жизнь проще и проще! Когда не занимаюсь аппаратным обеспечением, я читаю. Я люблю путешествовать, и обычно мне не терпится сесть за компьютер поработать.
Я также копирайтер, дизайнер, видеоредактор и писатель. Еще я делаю 3D с 3DS Max. Ты хочешь связаться со мной? Используйте кнопки социальных сетей или напишите мне по электронной почте. Буду рад услышать от вас!
Видеокарта для After Effects?
Какая видеокарта лучше всего подходит для постэффекта
Здравствуйте,
Моя видеокарта не поддерживает постэффект.Я куплю новый и хочу знать, что лучше
Спасибо
На такой вопрос никогда не бывает однозначного ответа, но:
Список карт, поддерживаемых для 3D Ray Tracing в AE, вы найдете здесь: конфигурация после эффектов, необходимая для Mac OS и Windows
Дополнительная информация о NVidia: Adobe After Effects CC — рабочий процесс 3D-графики | NVIDIA
Но если честно, большинство видеокарт nvidia будут работать с AE — ELA проще — чем больше ядер Cuda, тем лучше.
Но прежде чем тратить много денег на мощный графический процессор, знайте, что AE использует в основном от процессора до графического процессора, не так важно. Он использует графический процессор только для RayTracing (устаревший)
и некоторые сторонние плагины.
Необходим совет — видеокарта для After Effects и Premiere Pro
Привет всем
Я исследовал ПК в надежде вложить деньги в самый мощный ПК, который я могу себе позволить без поломок, и мне нужен совет.Согласно моему онлайн-исследованию, кажется, что лучшая конфигурация для редактирования видео будет включать процессор Intel i7 и видеокарту nVidia GeForce GTX 590.
Проблема в том, что каждый компьютер, на котором я вижу эту комбинацию, значительно дороже, чем другие компьютеры с Intel i7 и GeForce GTX 570. Лучшим ударом за свои деньги я обнаружил, что HP — у него был процессор Intel i7, но используйте только видеокарту GeForce GTX 550.
У всех вас есть мой вопрос: насколько сильно отличаются эти видеокарты с точки зрения фактической скорости и сокращения рабочего времени и времени в After Effects и первом Pro CS5 / CS5.5 рендеринг? Какая ценность дополнительных 300-400 долларов, чтобы получить GTX 590? Или кто бы потерял время рендеринга / производительность программного обеспечения всего за крошечные минуты? Кроме того, можно ли обойтись без высокой скорости и времени рендеринга с GTX 550?
Чтобы дать вам представление о том, для чего я использую это программное обеспечение: Я работаю над свадебным HD DSLR-видео, иногда с несколькими слоями курсов по эффектам и переходам; Я буду работать над видео продолжительностью от нескольких минут до более 45 минут.
Я ценю любой вклад, который есть у кого-либо. Заранее благодарим вас и с наилучшими пожеланиями!
-Майкл
Остерегайтесь систем HP. В общем, они не обладают достаточной мощностью с точки зрения источника питания, они используют нестандартный блок питания, который нельзя обменять на что-то другое, что HP, они используют нестандартные размеры блока питания, поэтому невозможно заменить один самостоятельно, и они совсем не привлекательно с точки зрения РЕИНЖИНИРИНГА. Их очень сложно разогнать или совсем не разогнать, и они всего лишь посредственные артисты или исполнители.
Спецификации, которые вы дали, показывают, что это неправильно сконфигурированная система. В системе i7-2600 должно быть 8 или 16 ГБ памяти, а не 12 ГБ. Он должен использовать 4 разъема DIMM, а не 3. Низкое энергопотребление этой видеокарты. Первичный диск — это слишком много для ОС и программ и пустая трата места. На хорошо настроенной системе 150 ГБ более чем достаточно. 2 ТБ не подходит. Вам не хватает 3-го и 4-го жесткого диска, производительность вам действительно понравится.
Короче говоря, эти характеристики выглядят пустой тратой денег.
Как создать карточку для After Effects & quest;
Как создать карточку для After Effects?
Центр разработчиков After Effects
Видеокарта для AE & quest;
Здравствуйте
Несколько советов по видеокартам, пожалуйста.
Мне скоро нужно купить новый компьютер, поэтому у меня нет времени, чтобы сэкономить больше денег. (Мои проекты AE [CS5] маленькие и скромные, это не монстры с 1000 слоями и сотнями эффектов.)
Я знаю, что видеокарты играют важную роль в игре, но насколько они важны для видеопроизводства?
Вот мои варианты для ПК с шестью ядрами, 8 ГБ оперативной памяти, которые я могу себе позволить:
ATI 5450
ATI 6450
GT610
Могу ли я уйти с дешевой картой, иначе моя система действительно пострадает?
Если бы эти дешевые карты были бы кошмаром, принесет ли 6770 или GT640 значительное улучшение?
Как я уже сказал, бюджет и время — две большие проблемы!
Спасибо за любую помощь,
Стив
Обратите внимание на советы по видеокартам для After Effects CS5.Большинство людей предоставят вам информацию, действительную для CS6 и более поздних версий, которая поможет вам, поскольку все, что связано с графическим процессором, было изменено в After Effects CS6.
Для After Effects CS5, который является OpenGL, и почти любая современная карта даст более чем достаточно сил, чтобы помочь.
Вам следует потратить деньги на больший объем оперативной памяти.
Какая лучшая видеокарта для фотошопа & запятая; After Effects и первый & двоеточие; 740 GT & запятая; GTX 750ti и запятая; GTX 750 OC или GTX 750PH и квест; Возможно, более дорогая карта & quest;
Привет
Я буду редактировать и создавать анимированную графику и из-за CUDA, полосы пропускания памяти и т. Д… Я не уверен, какая графическая карта лучшая в диапазоне от 100 до 200 евро / $. Не могли бы вы помочь мне в этом? С уважением
Здравствуйте
Вы можете проверить системные требования для Creative Cloud и различных приложений: -.
https://helpx.Adobe.com/creative-cloud/system-requirements.html
После обновления House 7 до 7 Pro на сайте поддержки Toshiba обнаружена неисправная видеокарта для L775D & period;
Оригинальное название: Graphics Adapter Gone.
После обновления House 7 до 7 Pro сайт поддержки Toshiba обнаружил неисправную видеокарту для моего L775D. У меня встроенная карта AMD Radeon 6250, и при поиске на сайте поддержки AMD моя видеокарта не отображается. Я произвел поиск автоматически, и тоже пришло пустое.
У меня тоже была проблема с напильником. TVALZ_O Sys, когда я ищу, потому что она есть на борту, я пришел с 3 файлами, с которыми я ничего не могу сделать. Система примет все доступные обновления Windows и продолжит не устанавливать 3 обновления безопасности.Это процессор Quad Core A6 Vision 1,4 ГБ, любая помощь будет принята с благодарностью, поскольку я отформатировал и переустановил, пока не посинел.
Привет Стивен,
Файл, который TVALZ_O, кажется, связан с Toshiba ACPI, и кажется, что ЭТОТ BIOS должен быть обновлен.
Поскольку после обновления до Windows 7 Professional вы сталкиваетесь со многими проблемами, похоже, вам может потребоваться проверить последние обновления Toshiba BIOS.
Важно: Изменение настроек BIOS (базовая система ввода-вывода) / полупроводника (CMOS) на дополнительные параметры оксида металла может вызвать серьезные проблемы, которые могут помешать правильному запуску компьютера.Microsoft не может гарантировать, что проблемы, возникающие в результате настройки параметров BIOS / CMOS, могут быть решены. Вы вносите изменения в настройки на свой страх и риск.
Вам необходимо связаться со службой поддержки обновления BIOS Toshiba и получить помощь.
Надеюсь на помощь информации. Сообщите нам, если вам понадобится помощь по вопросам, связанным с Windows. Мы будем рады Вам помочь.
Почему карта K5200 Quadro от Nvidia не отображается как карта, отвечающая за After Effects CC 2014 & quest; Он указан как поддерживаемый для первой версии Pro CC 2014 & период;
Я собираю спецификации для рабочей станции Dell, которую использую для работы Adobe CC, включая видео с After Effects и Premiere Pro.Мой компьютерный эксперт обеспокоен тем, что карта Quadro K5200, которую я хочу получить в системе, указана как поддерживаемая для Premiere Pro CC 2014, но что она не указана как поддерживаемая для After Effects CC 2014. Есть ли проблемы совместимости с этой картой и EI?
Спасибо!
stevemctee написал:
Мне нравятся разговоры на боковой панели, и это ценная информация, но я действительно надеюсь услышать от Adobe, почему эта карта отсутствует в списке и поддерживается AE.
Ооо, я тоже могу ответить!
Разработка и выпуск CC, они не работают с движком рендеринга с трассировкой лучей, мы сделали на всех (за исключением выравнивания каждой версии по соображениям совместимости), поэтому больше карт не тестировалось (или не будет) и добавлен в белый список.
Возможно, пройдет немного времени, прежде чем у кого-то с официальным логотипом появится . Это форум пользователей. Мы благодарны за то, что люди Adobe во многих напирают (серьезно, понимает, что форум AE вызывает большую любовь, учитывая, насколько крошечная команда AE), но иногда может потребоваться время, чтобы они появились. (Особенно, если некоторые из них в отпуске). Вот почему у них есть такие люди, как мы; У нас не может быть , но у нас есть M, V и P
Говоря об интеграции C4D: когда я недавно посетил офис команды Adobe, я должен был взглянуть на некоторые новые технологии, они работают над будущими версиями.Я очень доволен дальнейшим развитием AE. Границы между 3D и композитингом действительно начинают стираться. Некоторые вещи, которых нам сейчас не хватает (например, выражения для управления анимацией моделей C4D), будут решены.
Теперь, если вы планируете много работать в 3D, а это чаще всего в названиях и тому подобном, я думаю, глядя на 3D или 3D элемент Zaxwerks Invigorator. Последняя версия этого предмета делает его очень быстрым, учитывая, что он красивый, он может выглядеть.Это действительно потрясающе. (И использует графический процессор!)
Видеокарта для AGP 8 x
У меня материнская плата AGP 8 x ABIT VT7 (с 2004 года он староват) , но как найти все видеокарты Nvidia Geforce или ATi с поддержкой графики 8 x AGP?
Моя видеокарта — NVIDIA GeForce FX5500 с поддержкой AGP 8 x, поэтому мне нужно перейти на более производительную видеокарту для AGP 8 x.
Надеюсь поймете.
Не то чтобы вы хотели использовать карту 4х AGP даже более древнюю, но AGP 4х и 8х используют тот же корпус.
Однако небольшое количество 8-ми карт AGP, по-видимому, не может разогнаться до 4-х кратного.
Все модели Geforce AGP на FX на картах серии 8 x
(кроме, конечно, PCI-e;) — моделей).
Вы заметите, что на некоторых картах на странице ниже указано 4 x / 8 x. По сути, это 8 карт x, которые будут иметь размер
, также будут работать на 4-кратной скорости, если у вас есть материнская плата с 4-кратным увеличением (те, которые не говорят, что, без сомнения,
будет работать также на 4-кратной скорости).
Newegg AGP 8 x
У них есть FX5500 и Geforce 6200, но 6200, вероятно, намного лучше, чем ваш FX5500
в целом, потому что он находится в нижней части серии, но он должен немного улучшить некоторые световые эффекты.
Для лучшей интерпретации серии тестов нужно использовать большее количество секунд.
Например, от среднего до высокого диапазона. -6500> 6800 и т. Д.
Если вы ищете что-то мощное, карта ниже является высококлассной для этой серии.
, но вы не хотите проверять, достаточно ли источника питания для его работы.
BFG 6800 Ultra BFG 6800GT (GT> GTX> Ultra).
Думаю, что он перестал выпускать модели AGP высокого класса после серии 7800
7800GS
Другая возможная ловушка может заключаться в том, что у вас есть DELL или аналогичный OEM-производитель машин, как
. Говорят, что они иногда делали компоненты для своих собственных спецификаций (особенно в эпоху)
вашей машины), что требует от вас покупки частей. дома.
Вы можете уточнить это у производителя, если у вас есть этот тип машины.
.
Не могу поверить, что купил новую nVidia Zotac GeForce 960 AMP & excl; для After Effects и несовместимы с & excl; Это то, что я могу сделать, чтобы исправить это & quest;
Мне было интересно получить подписку на облако, но я только что обнаружил, что мой графический процессор несовместим с After Effects. Это нарушение сделки. Не могу поверить, что нет патча или чего-то отличного для этой видеокарты!
Единственная функция After Effects, для которой эта карта не может использоваться, — это ускорение графического процессора устаревшего графического процессора, созданного в отделе 3D-рендеринга.Все остальные функции графического процессора After Effects должны отлично работать с этой картой. Имейте в виду, что After Effects очень мало использует графический процессор, поэтому в любом случае графический процессор не имеет большого значения для After Effects.
Особенности GPU (CUDA, OpenGL) в After Effects
P7-1245 & lpar; QW762AA & rpar; & двоеточие; перечислить совместимые видеокарты для p7-1245 & lpar; IPISB-CU & rpar; & quest;
Я купил ZOTAC GeForce GTX 760 для своего p7-1245 с материнской платой IPISB-CU.В технических характеристиках продукта указано, что материнская плата поддерживает видеокарты PCI-E x 16. Я также купил диету 725w для установки новой видеокарты.
После установки комп зависает на заставке для HP. Я не могу даже в меню настроек.
После замены карты на оригинальную AMD Radeon HD 7450 все снова заработало.
Я провел небольшое исследование и обнаружил много похожих проблем, когда люди пытаются заменить или улучшить видеокарты в своих настольных компьютерах HP.Рекомендации в том числе обновление биоса и т.д. кажутся неэффективными для других, с возможным выводом — несовместимость самого Совета с видеокартой.
Может быть, для карты, которую я купил, требуется слот PCI нового поколения, и она не имеет обратной совместимости?
Есть ли список совместимых видеокарт для материнской платы IPISB-CU?
Спасибо за любую помощь.
Привет
Список графических карт HP OEM, приведенных ниже, должен работать с вашим ПК.
для HP Compaq dc7800
Я хочу купить видеокарту для своего ПК HP Compaq dc7800 в малом форм-факторе, мне нужны дешевые карты. Чтобы вы посоветовали.
Привет:
Вы довольно ограничены мощностью 240 Вт.
Я бы получил возможность низкопрофильной карты ATI Radeon 2400 HD 256 МБ PCIe на eBay.
Эта карта Dell, которую я опубликовал, должна работать нормально.
http://www.eBay.com/ITM/Dell-ATI-Radeon-HD-2400PRO-320-5891-/280798788349?PT=PCC_Video_TV_Cards & Hash = item4160e97afd
Если вы хотите получить новую низкопрофильную карту с HDMI, вы можете проверить ссылку ниже для Radeon HD 6450. Но убедитесь, что карта, которую вы получаете, поставляется с поддержкой низкого профиля, и прочтите комментарии к некоторым из этих карт, где говорят корзина пинов VGA закрытия корпуса.
http://www.Newegg.com/product/ProductList.aspx?submit=Ene & N = 100006662 & IsNodeId = 1 & Description =% 206450 HD & Bop = and & Order = Rating & PageSize = 20
Если у вас есть карта с выходом HDMI, она отключит ваше встроенное видео, затем перезагрузит компьютер после загрузки драйверов для карты, войдите в BIOS и в меню конфигурации устройства измените настройку встроенной аудиосистемы с отключенной на включенную.Сохраните настройку здесь и даже один раз, когда выйдете на улицу. Тогда получите вашу интегрированную аудиосистему, а также аудио HDMI, если вам нужно.
Пол
Новая видеокарта для Alienware X 51
Я хочу купить своему сыну новую видеокарту для его Alienware X 51, купленного в 2013 году. В настоящее время в автомобиле установлена Nvidia GT 640, которая явно не достаточно быстрая для новых игр.
Прочитав эту тему, я подумал о двух картах, которые нашел на Amazon UK:
PNY Графическая карта Nvidia GeForce GTX 960, 1127 МГц, 2 ГБ, PCI Express
Видеокарта EVGA 2 ГБ Nvidia GeForce GTX Superclocked GDDR5 960.
Это правильный тип карты? А кто будет лучше?
Power на данный момент представляет собой адаптер 240Вт. Обязательно ли покупать 330 Вт и должен быть (очень дорогой) Dell, или я могу обойтись одним из самых дешевых на Amazon?
Был бы признателен за совет — я не могу ошибаться!
Только справочная карта 9 ½ «.
Лучшая цена / Лучшая: PNY GeForce GTX 960 4 ГБ VCGGTX9604XPB
Да, мощность Амазонки 330 Вт, выставленная на продажу, такая же, как у моего X 51 Psalm 330w
32 ГБ или 64 ГБ ОЗУ для After Effects CC 2014 & quest;
-Ладно, давайте так:
- Системные характеристики:
- Материнская карта Asus X 99 Deluxe Usb 3.1
- 32 ГБ DDR4 RAM Corsair
- Intel i7 5960 x @ 3,0 ГГц CPU
- 2 x EVGA NVIDIA GTX 970 s
- Samsung 256 ГБ 850 Pro (загрузочный диск)
- 1 TB Samsung 850 Pro (кэш, исходный материал) , вывод рендеринга и т.д. 20 слоев по композиции) и использовать почти все эффекты (например, смещение пикселей, размытие в движении и т. Д.).) для многих моих композиций. 32 ГБ работают довольно хорошо, но недавно у меня возникла проблема, когда компьютер распознал только 8 ГБ ОЗУ; в связи с этим я заметил огромную разницу в производительности после эффектов CC 2014 между 8 и 32 ГБ (например, 8 ГБ без многопроцессорной обработки). Это заставляет задуматься … видел, насколько интенсивны мои композиции, 64 ГБ создадут заметную разницу? У меня есть возможность быть обновленным до 64 ГБ прямо сейчас (опционально) бесплатно «замыслами и бизнесом».« Какой прирост производительности я мог ожидать от 32 ГБ до 64 ГБ DDR4 DDR4?
Прирост производительности был бы очень важен для After Effects. Вперед!
Premiere Pro (этот форум) на самом деле не очень помогает, когда объем оперативной памяти обновляется до 32 ГБ, но After Effects использует оперативную память для предварительного просмотра и может даже попросить более 64 ГБ в системах.
750ti GTX или Radeon HD 7970 для After Effects
Здравствуйте,
Я создаю новый компьютер, в основном для работы с After Effects, но не могу выбрать между Nvidia GTX 750Ti и AMD Radeon HD 7970.
Хорошо, значит, 750ti более свежий, но он намного ниже, чем 7970 HD (у него меньше памяти, меньше единиц затенения, более низкая скорость пикселей, более низкая скорость текстуры и т. Д. И т. Д.), Но у него также более низкое энергопотребление (что для меня не особо важно). Но гораздо больше у есть Nvidia Cuda, которая может работать в After Effects.
Итак, мой вопрос: насколько Cuda действительно помогает? Что лучше, если карта будет более мощной (с точки зрения всех остальных характеристик, которые я написал), или лучше, чтобы она была менее мощной, но Cuda?
Заранее спасибо.
(Кстати, сейчас у меня AMD Radeon HD 7770, и у меня очень слабый и старый процессор, который я собираюсь обновить после графического процессора)
CUDA почти полностью не имеет отношения к After Effects. Он используется устаревшей функцией, использование которой прекращается.
Подробная информация о том, как After Effects использует графический процессор (минимум):
Особенности GPU (CUDA, OpenGL) в After Effects
Прежде чем беспокоиться о графическом процессоре для After Effects, потратьте деньги на ОЗУ, ЦП и твердотельный накопитель.