RSS

Компьютерная терминология    1_9  A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z  .....  A  Б  В  Г  Д  Ж  З  И  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч


VIDEO faq

   
 

Новости

 


Почему мерять скорость карты используя FPS неправильно
Хотя все наши читатели и знакомы со значением слова FPS - о чем идет речь:
FPS (frames per second) означает количество выводимых кадров в секунду, является одним из основных показателей скорости игры.
В связи с этим, есть тенденция его абсолютизировать. То есть, попытки представить его главным и единственным скоростным показателем. Доходит до совершенно курьезных вещей, когда не понимая сути измеряемого показателя, его пытаются представить как измеритель скорости видео-акселераторов. Зачастую этим грешат и маркетинговые отделы компаний-производителей, что вносит еще большую путанницу.
Давайте попробуем разобраться, в чем тут ошибка
Во-первых, никогда и ни при каких обстоятельствах нельзя применять этот показатель без приведения конкретных обстоятельств его получения. Ести вещи, от программ не зависящие - например, та-же частота смены кадров монитора. Неважно, как ведут себя программы, но, если и видео-карта, и монитор, поддерживают выставленную частоту - частота смены кадров (60 кадров в секунду, 75, 85, 100, и пр.) будет иметь место всегда. Совершенно другой случай мы имеем с FPS. Под FPS подразумевается реальная скорость генерации новых кадров игровой сцены, которая ничего общего не имеет с аппаратными вещами, типа refresh rate монитора, и очень сильно зависит от способа генерации сцены - даже если сама визуальная картинка одна и та-же.
Во-вторых, fps - это интегральный показатель, точнее - это усредненное за определенный период времени значение. И как со всякими усредененными величинами - с ним нужно обращаться осторожно.
Уточнение: мне хотелось-бы акцентировать ваше внимание на том, что именно я хочу сказать. Нельзя мерять (посредством FPS) именно скорость видео-аккселератора. Скорость же данной игры на данном видео-аккселераторе на данной машине с данным программным обеспечением - можно и нужно измерять при помощи FPS.
Второе уточнение: даже измеряя (при помощи FPS) скорость игры (а это практически единственный показатель ее скорости на данном аккселераторе) - необходимо помнить и о том, насколько плавно она идет. Потому что, даже если игра выдает очень большие значения FPS - если кадры сменяются неравномерно, то субъективно человек ощущает меньшую скорость. Например, последние драйвера от nVidia дают меньшую скорость в FPS, но большую плавность (равномернее интервал между сменой кадров), и за счет этого - субъективно кажется, что игра идет быстрее.
От чего зависит FPS
1. Загрузка процессора
1 Скорость процессора (CPU), для большиства игр, имеет очень большое значение. Но она используется одновременно для двух, совершенно разных вещей. Первое, это обслуживание самой игры, расчет изменений во времени,
1.1 AI (Artificial Intelligence - искусственный интеллект) участников, за которых играет компьютер (NPC), и прочее. В зависимости от игры, влияние этого фактора может варьировать от нуля до большей части загрузки процессора. Естественно, чем точнее (реалистичнее) расчитывается физика происходящих в игре процессов, чем умнее ведут себя "компьютерные" персонажи - тем больше времени тратиться на их расчет. Основной способ борьбы с этим - оптимизация как самого AI, так и всей суммы аппаратных и программных средств. Большинство видео-акселераторов имеют специальный (FIFO) буффер, который кеширует последовательность рисования графических примитивов, плюс, небходимость (как правило) синхронизировать смену кадров сцены со сменой кадров экрана. В результате, как стратегия для программиста, необходимо очень быстро нарисовать сцену (которая в значительной степени осядет в FIFO буффере видео-акселератора), уведомить драйвер, о смене буфера рисования (для double и triple buffering), и немедленно приступить к пересчету (но не рисованию!) следующей сцены и обработки AI. Если физика происходящего не требует больших расчетов и используется простенький AI - современные процессоры, как правило, успевают пересчитать всю сцену за то время, пока графический акселератор заканчивает обработку очереди примитивов, и синхронизирует смену буферов с частотой кадров монитора. Если он не успеват справиться с этой работой - FPS игры падает, как минимум, вдвое, по сравнению с возможностью скорости вывода самой видео-карты.
1.2 T&L (Transformation and Lighting - трансформация и освещение) - процесс преобразования локальных для объкта (модели) трехмерных координат в двухмерные координаты экрана. Сам по себе этот процесс не сложен, но требует значительных ресурсов процессора, и именно в области плавающей арифметики. Тут, для борбы с этой частью нагрузки, требуются свои меры. Во-первых, это покупка более быстрого процессора. Однако, скорость процессора (тактовая частота) - это не единственный, и далеко не главный показатель. Поскольку плавающие вычисления в 3D выполняются, достаточно "приблизительно", то играет роль скорость работы именно с float (а не double) числами. Скажем, AMD K6-II или PentiumIII имеют специальные инструкции процессора (3DNow! и SSE соответственно), предназанченные для быстрой и параллельной обработки плавающих чисел, и, при той-же тактовой частоте способны обрабатывать 3D графику более чем в два раза быстрее, чем аналогичные процессоры, но не имеющие этих инструкций (PerntiumII, Celeron, AMD K6-I и более старые). Поэтому, например, AMD K6-II 350 ведет себя лучше, чем тот-же переразогнанный Celeron 466.
Заметьте, что MMX инструкции предназначенны для работы с целочисленной арифметикой, и имеют значение только для software mode графики. Эти операции уже давно выполняются видео-акселераторами аппаратно, и нужда в MMX (в области игры) уже прошла.
1.3 Скорость системной шины и кэш памяти так-же играют существенную роль. Однако, это проблема в первую очередь именно программистов. Именно они обязаны разместить данные таким образом, чтобы при обработке они оказывались рядом, то есть попадали в кэш первого уровня одновременно. Зачастую, это ведет к увеличению требований игры по памяти, но, обычно, это не самая большая часть.
Стоит напомнить, что если программисты пишут игры без учета этой части современной аппаратной реализации компьютеров, скорость игры может упать в разы, а то и и более. Впрочем, купив себе компьютер и процессов с большим объемом кэш-памяти, и более быстрой системной шиной - вы можете значительно облегчить задачу программистов и несколько "исправить" их ошибки ;-)
1.4 Разное. Сюда можно отнести очень много факторов, влияющих на скорость игры. Напримет, тип шины (AGP/PCI) видео-акселератора. Огромное значение имеют вещи, о которых вы можете даже не задумываться - например, ISA звуковая карта может нещадно тормозить вашу игру, а как вы об этом узнаете?
Если речь зашла о звуке, то, например, программная реализация 3D звука может запросто отъесть значительную часть ваших ресурсов (от 3 до 6 % процессорного времени на каждый 3D звуковой буффер). Играют роль фоновые задачи - зачастую вы о них ничего не знаете, но, например, автоматически устанавливаемая MS Office-ом в авто-запуск, "быстрый поиск файлов" программка может с легкостью превратить ваш компьтер в полный тормоз, для некоторых игр.
Подведем итоги этой главы. Главное - скорость игры, и, следовательно, показатель FPS значительно зависит не только от вашего видео-акселератора, но и от других основных параметров вашего компьтера - процессора (и поддерживаемого им набора инструкций), количество памяти, размер кэш памяти первого и второго уровня, скорость шины, другая установленная переферия, фоновые задачи, настройки многозадачного режима и пр. Когда канонический персонаж Вася Пупкин говорит - на моем видео-акселераторе игра показывает XX fps, а Петя ему вторит, что на той-же самой карточке он имеет YY fps - это вообще ни о чем не говорит! Остальные отличия компьютеров и программного обеспечения могут легко изменить результаты в несколько раз!
От чего зависит FPS
Продолжим наши разбирательства со скоростью игр и видео-акселераторов. Если вы внимательно проинспектировали свой компьютер на предмет совместимости оборудования, программа написана "правильно" - то один из главных лимитирующих факторов, влияющий на FPS определился достаточно четко - скорость, с которой CPU просчитывает данные и "скармливает" их видео-акселератору - то есть скорость плавающей арифметики процессора, величина кэша первого уровня, и пропускная способность системной шины (и локальной шины акселератора PCI/AGP).
Сейчас вы спросите - а как-же другой "главный" показатель видео-карты - скорость заполнения (fillrate)? И спросите совершенно справедливо - это действительно один из основных показателей, влияющих на скорость игры. Но не всегда и не везде.
2. Fillrate
Fillrate - это скорость, с которой видео-акселератор заполняет (расчитанные) значения пикселей в буффер, то есть скорость рисования. На первый вгляд, ограничения накладываемые fillrate-ом обойти невозможно. Это чисто аппаратный показатель, он зависит только от скорости видео-памяти и процессора. Ну, еще от ширины канала, ведь, расчет цвета пикселей происходит аппаратно, и можно расчитывать их параллелльно, параллелльно же загружая в память видео-карты. Поэтому и растет ширина (а, следовательно, и пропускная способность) шины к видео-памяти - 64 бита, 128 бит, а теперь уже и 256 бит... Поэтому и ограничивается качество цвета, и используются только 16 бит на цвет, вместо "положенных" 24.
Fillrate - это одно из самых узких мест, и в борьбе за него жертвуют многим.
Однако, и тут, оказывается, есть варианты.
2.1 Разные типы буферов. Необходимо понимать, какие именно данные записывает акселератор в память. Кроме буфера самих цветов (цвет каждого пикселя), видео-акселератор хранит в своей памяти еще и другие данные. Как правило, это Z-буфер ("глубина", Z-координата, каждой точки экрана) и иногда, буфер шаблонов. Есть еще и другие типы буферов памяти, самый из известных который - накопительный буфер (accumulator), вариацией которого и является разрекламированный T-buffer будущих карт фирмы 3dfx. Однако, большинством "игровых" акселераторов, аппаратно поддерживаются только Z-буфер, и буфер шаблонов (как правило, в 32-битном режиме).
При использовании других типов буферов аккселерация не поддерживается, драйвера переходят в software режим... В общем, никто их (по этой причине) и не использует.
Таким образом, акселератор записывает в память, как правило, вдвое больше инофрмации, чем вы видите на экране.
2.2 Чтение видео-памяти. Кроме записи в видеопамять сформированной картинки, акселератору необходимо еще и читать из нее. Необходимость возникает в двух случаях - необходимость знать Z-координату пикселя, для того, что-бы не рисовать поверх него точки, лежащие за ним;
- необходимость прочитать цвет уже нарисованной точки, для смешения цветов, а именно, когда рисуется полупрозрачный объект (дым, огонь, вода, стекло и пр.) находящийся к нам ближе, чем уже нарисованная точка.
2.3 Текстуры. Текстуры объектов тоже храняться (как правило) в видео-памяти акселератора, и их чтение (перед накладывание на поверность объекта) так-же отъедает значительную часть пропускной способности шины.
Взглянув на эти два пункта, становится ясным, как увеличить скорость игры, даже при фиксированном fillrate. Для этого нам нужно минимизировать все операции, связанные с записью и чтением данных в/из памяти видеокарты.
Простейший пример - стена. Непрозрачная. Совершенно точно известно, что объекты, находящиеся за стеной, видны не будут. Значит, если программист сможет заранее выяснить, какие именно объекты рисовать не нужно - отпадает необходимость
а) в записи в Z-буфер данных, относящихся к стене, и
б) чтение из Z-буфера данных, при рисовании объектов находящихся "перед" стеной. Таким образом, можно, практически, на 2/3 сократить объем данных, передаваемых по шине памяти акселератора, и увеличить "эффективный" fillrate в 3 раза. Разумное использование прозрачных объктов так-же может значительно сократить наши затраты.
Конечно, эти "хитрости" программирования 3D движков не всегда удается использовать, но фокус заключается в том, что именно фон картинки требует максимальной скорости заполнения (так как он занимает большую часть физической поверхности экрана), и здесь этот прием работает в полную силу.
Таким образом, в типичной игре, даже при наличии не слишком высокого уровня fillrate современных акселераторов, возможно создание достаточно "заполненных" сцен. Больше того, уж позвольте мне немного удариться в философию, но я уверен, что значительное повышения скорости заполнения следующего поколения видео-акселераторов, не даст настолько же значительного повышения скорости игры. Многие их моих знакомых ностальгически впоминают Word 2.0. Помните, текстовый такой? И работал он с приемлемой скоростью, и функционально не было обделен. Что-же произошло, что имея супер современный пентиум и дикое (как казалось совсем недавно) количество памяти, пользователи все так-же мучаются "тормознутостью" современных программ?
Впрочем, ответ вы знаете не хуже меня. И позвольте выразить уверенность - как только fillrate перестанет быть самым узким местом - никто, ну совершенно никто не будет его экономить. Да, еще какое-то время он будет расти - будет нужен для полносценного антиалиасинга, для стерео-режима, для увеличения разрешения экрана. Но уже наступает насыщение, и когда fillrate увеличится в несколько раз - вы это не сильно-то и заметите...
Замечание: если резюмировать вышеизложенное, то при прочих равных условиях (тот-же самый компьютер, отсутсвие таких внешних факторов, как ISA звуковая карта, безобразные программы, запущенные в фоновом режиме и пр.) - очень важное значение имеет то, для какого видео-аккселератора была оптимизирована данная игра. А это, как правило, значит - каким видео-аккселератором и API пользовались разработчики. Наиболее известный (печально изветсный) пример - это, конечно-же, движок от Unreal. Наверное, можно было-бы просто привести Unreal в качестве примера, почему при помощи FPS нельзя мерять скорость именно аккселератора, но можно мерять скорость данной игры на данном аккселераторе (и прочих состаляющих)...
Glide, D3D, OpenGL
Давайте рассмотрим еще одни (а то и несколько ;-)) мифов 3D программирования. Один из наиболее часто встречаемых - Glide API лучше, чем D3D, или OpenGL. Как доказательство, приводят то, что игры, написанные с использованием Glide работают быстрее (на этом API), чем на D3D или OpenGL, выглядят красивше и пр.
В общем-то результат действительно имеет место быть. Действительно, игры типа Unreal, и написанные с использованием этого движка - выглядят, при использовании Glide значительно красивее, и бегают не в пример быстрее.
Но из "верных" исходных посылок делают неверный вывод, что API Glide лучше, чем другие. Я думаю, путанница связана с тем, что при настройке игры, пользователь выбирает пункт меню "Использовать Glide", и автоматически ассоциирует результат с данным API.
Это в корне неверно.
Давайте разберем, что же именно делает Glide игры более быстрыми реально.
Прежде всего, должен вам заметить, что если игра поддерживает Glide - то с вероятностью 99.9% она изначально и писалась для этого API. Скорее всего, тут имеют место исторические причины - еще совсем недавно Glide было чуть-ли не единственным API, пригодным для создания игр на PC. D3D еще пешком под стол ходил, и сравнивать возможности версии 3.0 с версией 7.0 просто смешно. OpenGL использовался, в основном, только на high-end графических станциях, и нормальных драйверов для него для PC просто не существовало как класса.
Игры, особенно сложные, тоже пишуться не один день. И не месяц. Они пишутся годами, и когда их начинали писать - Glide-у просто не было альтернатив. Впрочем, D3D пытались использовать, но он был изначально оптимизирован под software рендеринг, поэтому его в расчет для акселераторов (в то время - практически монопольно представляемых 3dfx) брать не имеело смысла.
По ходу дела замечу, что программисты, пишушие 3D игры, должны бы каждый день ходить и ставить свечку Кармаку, который "позволил" себе оставить отживший свое Glide, и не поддаться шантажу мелкософта, и остановил свой выбор на OpenGL. Первые OpenGL драйвера на PC писались чуть-ли не исключительно с целью поддержки Quake, и только благодаря ему мы имеем сейчас возможность сравнивать и выбирать.
Но вернемся к Glide. Итак, большинство игр изначально начинало писаться на нем. Но. Но не это является причиной, по которой игры на Glide являются "самыми" красивыми и быстрыми. Дело в том, что Glide является прямым отражением аппаратных возможностей Voodoo видео-акселераторов. Для того, что-бы писать игру на Glide - программисты работали в первую очередь на Voodoo картах, и отлаживались на них-же, и оптимизировали свои движки на Voodoo картах.
Как-то давно, я читал об одном поставленном экперименте, еще на заре программирования и компьютеризации. Взяли несколько программистов. Одних из лучших. Поставили им одну и ту же задачу, и, как говориться, засекли время. Так вот, время написания ими программы, практически не отличалось. Но вот скорость работы программ - отличалась в десятки раз. Все были очень хорошими специалистами, все были асами своего дела. Причина такого разрыва была в том, что одну и ту же задачу можно решить несколькими различными способами. Я вообще верю в то, что Господь Бог не может предложить ситуацию, с менее чем тремя возможными вариантами поведения, ибо это будет прямое оскорбление человека, чего Отец наш не допустит.
Но вернемся к нашему разговору. Итак, из простого я понятного факта, что начиналась разработка 3-х мерных игр, как правило, на Voodoo, на них-же в первую очередь отлаживалась и оптимизировалось - из этого следует простой вывод. В каждом случае, когда один и тот-же результат можно было достичь разными способами - выбирался тот, который быстрее работал именно на Voodoo картах. Понимаете? Кроме рисования (fillrate), и расчета геометрии (T&L) - есть еще уйма, прорва всего, что влияет на производительность карты.
На некоторых медленно происходит переключение контекста рисования (например, смена текстуры), или еще какой процесс. Одни драйвера делаю упор на оптимизацию одного способа рисования, другие - другую часть. У одного акселератора размер FIFO буффера графических примитивов один, у другого другой. Даже при (приблизительно) одинаковых аппаратных характеристиках, разница в скорости рисования одной и той-же сцены может отличаться в несколько раз. Легко.
Оптимизация драйверов - это вообще совершенно отдельная, неспетая песня. Просто маленький пример из OpenGL Game Developers Mailing List. Один программист хотел использовать PixelTransfer - чтение данных из видео-буфера. Это оказалось очень и очень медленной операцией. Это показалось ему странным, и он связался с ATI, и помог им оптимизировать ту часть драйвера, которая отвечала за этот процесс. Скорость данной операции выросла, по его словам в 2000 раз. В две тысячи раз. К сожалению, он потом отказался от этого пути решения своих проблем, так как все остальные драйвера (к другим видео-аккселетарорам), естественно, не были оптимизированны в этом месте.
Ну и конечно, имея несколько-кратный запас по скорости на Voodoo карточках, программисты могли себе позволить добавить больше эффектов (опять-же, используя способ, лучше всего работающий на Voodoo) - и, как результат, эти игры работают на картах 3dfx не только быстрее, но и выглядят красивее.
Итак, проблема не в том, что Glide как API лучше. Просто большинство самых сложных современных игр изначально писалось, тестировалось и оптимизировалось под Voodoo карты (и только на них и работает Glide, ведь так-же?). Если раньше это был вынужденный шаг, и правильная политика (поскольку, 3dfx имел этот рынок практически монопольно), то сейчас, когда пальму лидерства по продажам и установленным картам перехватила NVidia - медленная работа на других картах, и в первую очередь на народных картах TNT/TNT2 - это просто неуважение к нам.
D3D, OpenGL
Итак, поговорив немного о "лучшести" Glide, давайте попробуем сравнить оставшиеся два широко распространенных API - Direct3D, и OpenGL.
Прежде всего, пнем, по ходу дела, еще один распространенный миф. А именно - "Direct3D изначально быстрее, чем OpenGL". Дело именно в слове "изначально", отображающее маркетинговые происки M$, о том, что, мол, OpenGL изначально делался для High-End графических станций, а, мол, Direct3D делался специально для задач написания игр, и потому, как-бы OpenGL не тянулся - до Direct3D ему не достать.
Миф. И очень вредный, кстати говоря.
Да, никто не будет отрицать, что современные Direct3D драйвера, как правило, несколько быстрее, чем их OpenGL собратья, и более стабильны... Но это не результат "изначальной" лучшей проектировки D3D, или его "специальной" заточки под 3D игры. Это результат постоянного шантажа и выкручивания рук производетелям драйверов и железа, со стороны M$, разумеется.
Изначально, то есть с точки зрения проектирования, дизайна API, его удобства для разработчиков игр и драйверов, его целостности, его красоты, в конце концов - изначально OpenGL намного впереди D3D.
Не буду распространяться слишком много, ведь это, в конце концов, читают в основном те, кто играют в игры, а не те, кто их пишет. Но все-же несколько слов общего плана сказать стоит.
1. Написание программ состоит из нескольких этапов - поектирование, реализация предварительного варианта, и затем - отладка, оптимизация и сопровождение.
2. По всем - совершенно по всем и каждому пункту OpenGL предоставляет больше возможностей программисту. (поправка: это заявление было сделано в творческом запале, приношу свои извинения. Звучать должно, приблизительно, так: по всем основным показателям OpenGL предоставляет больше, или, по крайней мере, не меньше возможностей).
2.1 Проектирование. Ну, если говорить о 3D части игр, то OpenGL значительно лучше документирован, его интерфейс намного более удобен и прозрачен, по сравнению с Direct3D, вы можете найти тонны примеров, как реализовать то или иное. (поправка: большая часть документации - на английском языке, и книги по OpenGL найти в нашей стране очень проблематично)
2.2 Предварительный вариант. Тут OpenGL опять вне конкуренции. Объем написанного кода (в смысле - количество строк исходного текста) в разы меньше, необходимого для D3D. OpenGL не требует хранить и передавать драйверу данные в определенном формате, практически каждая функция имеет варианты для разных типов аргументов - короткое и длинное целое, короткое и длинное число с плавающей запятой.
Вы можете разместить различные данные в одной структуре, и формат этой структуры никак не диктуется OpenGL API, в отличие от, так сказать. Опять-же, OpenGL не привязан к различным proprietary вещам типа COM интерфейса, и имеет прявязки (возможность вызова), практически из всех распространенных языков программирования. (поправка: опять-же, в разоблачительном раже, я скромно умолчал о том, что именно COM интерфейс и позволяет вызывать D3D из любого языка программирования, не требуя специальных привязок, как это необходимо в случае с OpenGL. Однако заметьте, что OpenGL - изначально мультиплатформанный API, и расчитывать на COM, живущий практически только под Win32 - не может. Да, ну и сам по себе COM - вещь не самая по-уму спроектированная, что особенно заметно после знакомства в SOM/CORBA)
2.3 Отладка. Тут OpenGL тоже на высоте. В любом месте программы вы можете полностью проверить состояние драйвера и текущие настройки. Каждый вызов системной функции предполагает (и располагает!) полную проверку правильности всех аргументов, а ошибки не приводят к фатальным последствиям и легко находятся. Кстати, именно это и заставило меня перейти от Glide API на OpenGL - потому что, начиная с некоторого порогового уровня сложности, я оказался просто не в состоянии отследить работу Glide.
К сожалению (а скорее - к счастью), я не имел чести отлаживать программу, написанную на D3D. Но вынужненное знакомство с "родственными" API - DirectSound и DirectInput оставили у меня (как и вообще весь стиль MS) тягостное впечатление.
Дополнение: на самом деле, D3D ничуть не уступает OpenGL в плане отладки. И тягостное впечатление - было вызвано, скорее, качеством реализации вышеозначенных драйверов. Впрочем, в плане отладки приложения D3D и OpenGL действительно значительно отличаются друг от друга. Дело в том, что OpenGL функции не возвращают код ошибки (если она произошла). Можно получить информацию о ошибке при помощи специального вызова. Это объясняется множеством причин, которые слишком обширны, что-бы их здесь подробно обсуждать. По крайней мере, фактом является то, что обе схему (OpenGL и D3D) предоставляют неплохие возможности для обнаружения ошибок и отладки программ. А какой подход лучше - это, наверное, дело вкуса ;-)
2.4 Оптимизация. Пожалуй, самая интересная, с точки зрения конечного пользователя, возможность. Тут Direct3D и рядом не стоял. Вообще. Начнем все с того-же - OpenGL не диктует формат данных. Ни программисту, пишущему игру, ни писателю драйверов. Соответсвенно, те, кто пишут драйвер, могут сохранять данные, переданные программой - где угодно и как угодно. Например, после предварительной обработки (T&L) - в той-же видео-памяти, которая значительно быстрее, чем обычная. Да и формат хранения они, естественно, выбирают наиболее близкий к необходимому для передачи в железо. Кроме того, для "статических" объектов, то есть не меняющих свою геометрию и пр. свойства во времени - есть возможность скомпилировать их в display list. Опять-же, поскольку эти данные не изменяются во времени, уровень возможной оптимизации значительно выше, чем у ближайшего аналога из D3D. Есть и форматы хранения и передачи данных, позволяющие модифицировать объект в течении времени, к тому-же, предполагающие более удобный и компактный вид, чем D3D - DrawArrays и DrawElements.
2.5 Сопровождение. Сопровождение предполагает исправление ошибок (то есть постоянный процесс отладки) и постоянное обновление программы, для поспевания за быстротекущим временем - это включает в себя поддержку нового железа, и переносимость на другие платформы. Вы уже догадались - D3D не может даже претендовать на равность в этих впоросах. О переносимости (а следовательно - и освоении смежных сегментов рынка) D3D говорить просто не приходится. Он и в Windows-то не успевает - скажем, последняя официальная версия для NT - это DirectX 3.0, а для Windows 95/98 - 7.0. А ведь NT - это стандартная платформа разработчиков программ Win32. Как вы догадываетесь - о Mac, Linux, OS/2, BeOS и других - говорить просто не приходится - а ведь за ними тоже стоит немало людей, и для бизнеса - это тоже деньги!
В плане поддержки новых технологий... Ну как закрытый и контролируемый только одной корпорацией API может соперничать с открытым стандартом? OpenGL официально поддерживает механизм расширений - и каждый производитель 3D акселераторов может добавить в него именно те возможности, которые есть только у него, и нет у других производителей. Кроме того - расширения - это и эффективный механизм развития API. Наиболее часто используемые программистами расширения постепенно и естественным образом переходят в разряд стандарта, к тому-же, все производители имеют время для доработки и улучшения как нового стандарта, так и своего железа - в течении времени "обкатки" расширения. Опять-же, отсутсвие жесткого формата данных позволяет вносить и совершенно радикальные изменения - например, мультитектурирование, которое, при фиксированном формате данных, может потребовать переработки всего API типа D3D.
И под конец, почему-же все-таки Direct3D быстрее OpenGL? Да по политическим причинам. Только. Именно по политическим причинам программная реализация OpenGL "от Microsoft" была значительно медленнее, чем Direct3D реализация. Больше того, существовала реализация OpenGL для Windows "от SGI" - значительно более быстрая. Но после того, как M$ и SGI "помирились", договорившись не вести войн стандартов, а совместно начать работать над проектом Fahrengeht (кажется так...) - мелкосфот потребовал убрать из интеренета все ссылки на SGI реализацию OpenGL, и прекратить его дальнейшую поддержку... (поправка: как вы пониматете, это голословное утвержение, и нигде в Internet вы не найдете документов, подтвержающих это... и все-же). Что, увы, и было сделано. Мелкософт же, как обычно, попытался всех "кинуть" - и реализовать Фаренгейт только через Direct3D. Впрочем, за OpenGL часть проекта отвечал SGI, но ему стало как-то скучно на этом рынке, лучшие специалисты перебрались в NVidia, и так-бы OpenGL и скончался, тихо и незаметно... не получи он мощную поддержку со стороны Кармака. За что, как я писал, программисты ему ежедневно свечку должны ставить и молиться за здравие ;-)
поправка - Konstantin Mironovich при обсуждении этого пункта высказал свою точку зрения, что Джон Кармак вообще тут не при чем. Не он первый встал на защиту OpenGL, а Chris Hecker), и вообще, Quake писал не он, а программисты, которых он, впоследствии, уволил. Лично я, как автор статьи, считаю, что это (кто кого и когда увольнял) к теме статьи не имеет. А тот факт, что не Кармак первым начал размахивать флагом, с призывом перейти на OpenGL (если он им вообще размахивал) - опять-же не к месту, ибо речь идет о том, что именно Кармак поставил на OpenGL при написании Quake, и именно необходимость поддерживать Quake привела к появлению OpenGL (как игрового API) под Win32. Как говорят в Одессе - это две большие разницы ;-). Одно дело - писать открытые письма, а другое - создать реальные условия, чтоб производители 3D-аккселероторов потратили миллионы долларов на поддержку OpenGL. Не так-ли?
Поддержка T&L
Поговорим теперь о модной нынче теме - T&L (попросту transformation and lighting - трансформация и освещение).
Строго говоря, нельзя назвать неподдержку аппаратного T&L мифом. Скорее - это аттавизм и косность программистов.
Если вы уже читали мои статьи здесь, или постинги на форуме 3DNews, или сами знакомы с написанием 3D программ - вы должны уже быть в курсе, что каждая, каждая 3D игра требует T&L как промежуточный этап. Не буду останавливаться на этом подробно, так как уже писал на эту тему. Но хотелось бы объяснить - каким же образом получилось, что, все программы используют T&L, и в то же время - они оказались не готовы к аппаратному T&L ?
Ответ достаточно прост. Проблема заключается в том, что до самого последнего времени, ни Glide ни Direct3D не имели поддержки T&L. Glide и сейчас ее не имеет, кстати говоря, и это была одна из причин, по которой 3dfx отказалась от его поддержки и дальнейшего развития.
Как действует программист, который должен поддерживать T&L, если в API его поддержки нет? Тут и угадывать нечего - он его пишет сам. И даже если в числе поддерживаемых API есть OpenGL, который, на уровне API, поддерживает T&L - кому, ну кому нужна головная боль, с ведением параллельно двух видов исходных текстов - для самостоятельной реализации T&L, и для реализации T&L через OpenGL?
Конечно, их предупреждали. Им говорили - ребята, вот-вот появятся 3D акселераторы с поддержкой T&L. Ну и что, ну говорили? Вы же знаете - пока гром не грянет, мужик не перекрестится.
Им говорили - ну как-же так, ведь на уровне драйвера значительно легче оптимизировать процесс T&L. Драйвер может автоматически использовать все возможности железа - например, автоматически будут поддерживаться новые инструкции AMD 3DNow! и SSE. Возмите во внимание еще и такой факт. У вас есть 1000 человеко-часов на оптимизацию. Если вы оптимизируете каждую из 1000 игр - получится один час на каждую игру. Или, если вы оптимизируете только драйвер - можно добиться совершенно фантастического уровня оптимизации. И, как следствие, алгоритмы используемые в драйверах - значительно лучше и быстрее "самопальных".
Но очень мало кто прислушался к таким советам. Вообще, это американская модель - жить сегодняшним днем. Жить сегодняшней прибылью - а там видно будет...
Вот так мы и пришли к совершенно абсурдной ситуации, когда все используют T&L, почти все даже поддерживают OpenGL - а игр, поддерживающих аппаратную реализацию T&L - совсем немного.
Впрочем, не все так печально. Игры поддерживающие аппаратный T&L появятся очень быстро. Ведь, фактически, для этого нужно совсем немного. Новые игры - изначально проектировать так, чтобы они не занимались самодеятельным T&L. А из старых - просто убрать лишнее. Просто убрать... Как говориться, ломать - не строить. И это, пожалуй, единственный изветсный мне пример, когда эта поговорка несет положительный смысл ;-)
Заключение
Можно вспомнить и обсудить еще много мифов, связанных с 3D программированием, но, пожалуй, стоит остановиться. Как говорят поляки - что занадто, то не в здраве.
И все-же, мне хотелось бы завершить эту статью небольшим призывом. Вы, как пользователи, как люди, для кого мы работаем - вспомните и о тех, кто пишет для вас игры.
Поддерживайте OpenGL. Пишите письма фирмам-производителям, требуйте исправлять ошибки и оптимизировать OpenGL драйвера. Поверьте, вы первые, кто выиграет от того. Мы сможем писать игры быстрее и лучше, они будут содержать меньше ошибок и работать быстрее.


Прогноз на будущее графических акселераторов`2000 : 25/03/2000
Технологии 2000
У каждого производителя свой производственный цикл, зная который можно предсказывать примерное появление новых товаров на рынке. nVidia задала темп, с которым трудно соревноваться другим компаниям. По последним данным политика компании сводится к разработке полностью новых продуктов каждые 6 месяцев. Не стоит понимать это буквально. GeForce 3 к зиме мы не увидим. Компания выпускает новые продукты на разные сегменты рынка. То есть весной делает акселератор на рынок десктопов и для профессиональных CAD станций, а осенью немного подновляет его, повышает частоту, улучшает архитектуру и одновременно выпускает полностью новый продукт, но уже на рынок мобильных систем. Отсюда и получается лозунг - "Полностью новый продукт каждые 6 месяцев".
Однако nVidia не единственный претендент на корону на рынке бытовых акселераторов. Не стоит недооценивать таких игроков как ATi, S3 и Matrox. В этом материале мы постараемся обобщить все данные, которые стали нам известны за последнее время в отношение будущих продуктов компаний. Для начала поговорим о том, какие эффекты мы ожидаем в ближайшем будущем.
Антиалиасинг
Не важно, каким методом он будет осуществляться. На сегодня точно известно, что продукты nVidia и 3dfx будут поддерживать эту технологию. Для осуществления антиалиасинга требуется выдающаяся скорость графического чипа и большая ширина канала памяти. Вкратце напомним, что антиалиасинг убирает ступенчатую структуру линий, которые видны на мониторах. Чем более высокое разрешение вы используете, тем менее заметен алиасинг. В зависимости от качества для сглаживания сцены понадобится различное колличество ресурсов. Вероятно будущие акселераторы 3dfx будут иметь несколько степеней антиалиасинга. Самая простая будет доступна на серии 5x00, созданных на базе двух процессоров VSA-100. Более продвинутая сможет быть получена на более дорогостоящих моделях 6000. Компания до сих пор не анонсировала цены на свою будущую продукцию, поэтому делать выводы о ценовой оправданности использования сглаживания мы не будем. nVidia тоже предоставит своим пользователям антиалиасинг, но реализованный немного по другому принципу. Технология проста - рендеринг изображения в более высоком разрешении, затем снижение разрешения до более низкого. В результате мы получим сглаженные линии. Но стоит напомнить, что новое поколение акселераторов будет иметь всю ту же DDR память, не намного более быструю, чем у DDR моделей GeForce 256. Отсюда можно сделать вывод, что антиалиасинг будет серьёзно сказывать на производительности, особенно при использовании с высоким разрешением (1024x768) и 32-бит цветом. Даже производительности NV15, кажущейся сейчас невероятно высокой не хватит для антиалиасинга в таком разрешении на скорости под сотню кадров в секунду.
Сжатие текстур и обьёмные текстуры
Сжатие текстур в бытовых акселераторах существует очень давно. Действительно эффективные алгоритмы появились лишь полтора-два года назад. Сегодня наступило время расцвета этой технологии. Во многом за это можно благодарить Unreal Tournament. Видевшие эту игру на акселераторах c чипами Savage4/2000 единогласно заявили, что по сравнению с другими чипами картинка бесподобна. Постепенно появится ещё больше игр с поддержкой текстурного сжатия. Проблема заключается в том, что в DirectX7 поддерживаются так называемые DXTC уровни сжатия нескольких видов. Компания Microsoft лицензировала S3TC у компании S3, превратив его в открытый стандарт. Отсюда и появился DXTC. В OpenGL другая ситуация - S3 оставила за собой право выдавать лицензию. На сегодняшний день S3TC в OpenGL поддерживают Savage3D, Savage4 и производные, Savage2000, GeForce 256 (бета версия Detonator 5.08) и ATi Rage Maxx (очень сырая поддержка). По нашим данным все следующие акселераторы нового поколения будут поддерживать S3TC во всех доступных API. Компания 3dfx кроме S3TC поддержит свой формат FXT1. Несмотря на открытый статус этого стандарта мы не видим поддержки ни со стороны разработчиков оборудования, ни со стороны гейм-девелоперов. 3dfx сильно сдала позиции, и разработчики относятся весьма настороженно к перспективам компании и технологиям, ею внедряемым. Одним из узких мест при использовании сжатия текстур становится оперативная память. Учитывая серьёзное падение цен на модули DIMM SDRAM, использующиеся со всеми персоналками можно предсказать увеличение порога минимального обьёма SDRAM в бытовых игровых компьютерах. О перспективности технологии говорит и заявление Microsoft о поддержке какого-то формата текстурного сжатия в готовящейся приставке X-Box.
Одна из перспективных разработок, которая будет введена в новые продукты - поддержка обьёмных текстур. Технология относительно новая, впервые появившаяся в спецификациях OpenGL версии 1.2 Нам ещё не удалось посмотреть на практические примеры применения обьёмных текстур. Метод обьёмного текстурирования поможет работать с вокселями, для наложения текстур нестандартной формы, для создания деформируемой геометрии. На днях Microsoft заявила о лицензировании технологии nVidia для следующей версии DirectX. Двумя неделями раньше ATi заявила о поддержке 3D текстур в своём следующем продукте, называемом сейчас Rage 6. 3dfx, S3 и Matrox не анонсировали поддержки обьёмного текстурирования в ближайших поколениях продуктов. Однако в спецификациях Rampage 3dfx намекнула на акселерацию воксельной графики. Можно ли это понимать как поддержку обьёмных текстур, либо это будет нечто другое мы узнаем в будущем. Уже сегодня есть чипы с поддержкой обьёмного текстурирования - Permedia 3 от 3DLabs поддерживает аппаратную акселерацию этой технологии. Понятно, что обьёмная текстура будет занимать больше места в памяти чем обычная, плоская. Поэтому очень критичным становится поддержка специальных эффективных методов сжатия обьёмных текстур. Будет ли разработан единый алгоритм, либо разработан стандарт, а сжатие и распаковка должны будут происходить на лету внутри чипа мы узнаем после финального анонса спецификаций готовых продуктов. ATi не говорила о каких-либо алгоритмах сжатия.
T&L, TCL и т.д.
Аппаратная трансформация и освещение пришли в мир бытовых акселераторов из профессиональных машин. Основной смысл - разгрузить центральный процессор от работы над геометрией. На рынке дорогих графических станций это давно поняли - процессор должен заниматься работой операционной системы, звуком занимается специальный звуковой чип, графикой - графический, геометрией - геометрический. Использование такого количества процессоров в бытовом компьютере приведёт к неоправданному увеличению стоимости системы. Поэтому ядро T&L интегрируется прямо в графический процессор. Сегодня мы имеем два продукта с поддержкой T&L - Savage2000 и GeForce 256. Компании уже анонсировали интегрированные наборы логики, с поддержкой T&L. ATi представила совместную разработку с ARTx, nVidia ещё не выдавала официальной информации, но данные о мобильном варианте NV11 давно просочились в Сеть. Первое поколение продуктов не было востребовано девелоперами. Если бы не технологические демки nVidia да "Dagooth Moor Zoological Gardens Demo", мы бы не увидели пользы от T&L и пребывали в священной уверености в непогрешимости 3dfx, поставившей на высокий Fillrate. По последним данным следующие поколения продуктов от ATi (кодовое имя Rage6) и GeForce 2 (NV15) будут использовать более сложное T&L ядро, которое правильнее будет называть TCL (Transform, Clipping and Lighting) ядром. Уже не раз писалось, что T&L сам по себе ничего не даёт. Даже поддержка T&L игрой не приводит к моментальному увеличению качества до фотореалистичного уровня. Проблема проста - какая разница, чем рассчитывать трансформации, отсечение и освещение полигонов? Будет простенькая модель и обычный алгоритм SoftTL+Rasterization, либо HadrwareTCL+Rasterization нам не важно. Если модельки примитивны, изменений не будет. Как пример можно привести игру Test "Drive 6". Использование T&L ничего визуально не меняет. Нет смысла в очередной раз перебирать методы использования T&L. Хочется лишь напомнить, что выход игры "The Whole Experience" запланирован на конец этого года. TWE - сложный продукт, работу которого мы успели оценить по DMZG демке. По нашему мнению игры, которым действительно понадобится TCL появятся не раньше конца этого года. Есть несколько заявленных лейблов в разработке, выход которых запланирован в ближайшее время, а некоторые уже ушли на золото. Но по скриншотам не видно, чтобы TCL использовался на полную катушку.
Кстати говоря о TCL многие предствляют себе сложнейшие модели монстров в шутерах. Мало кто задумывается о возможных фотореалистичных моделях автомобилей, людей на улицах в следующем "The Sims", и уж точно никто не вспоминает вселенные "Star Wars" и подобные. Представьте себе масштабную битву флота повстанцев около Звезды Смерти. Если вы смотрели фильм, то поймёте сколько нужно полигонов, чтобы такое изобразить даже не создавая супер-сложных моделей космической техники. Уже в последних играх этого жанра наблюдаются серьёзные проблемы с производительнотью в больших битвах. Возможно катализатором использования TCL станет именно жанр симуляторов, а вовсе не 3D шутеров, как принято считать. Отличные картинки, демонстрирующие плюсы T&L можно посмотреть в следующих обзорах:
GeForce 256
Savage 2000
ATi RageOn 256
Основные эффекты, появление и перерождение которых должно произойти в ближайшее время мы разобрали. Теперь давайте рассмотрим конкретных представителей. Сегодня на рынке остались несколько серьёзных игроков, плюс полу-мифические предствители компаний, потчующих нас сочными пресс-релизами и интервью. Начнём по порядку.
3dfx
Вопреки устоявшемуся мнению акселераторы 3dfx "Voodoo Graphics" были отнюдь не первыми игровыми акселераторами в России. Бесспорно, с их появлением начался расцвет игровой акселерации, но первые акселерированные игры, вроде Battle Arena Toshinden мы видели ещё до появления Quake. Выпустив первые три продукта 3dfx явно расслабилась. Уже начиная с Banshee можно было заметить увядание компании. Выпуск кастрированного продукта, не конкурентного с TNT от nVidia, выплывшего на плечах Voodoo2 и Glide не добавил репутации компании. Если бы не "Unreal Tournament", 'Need For Speed: High Stakes" и несколько других известных игр, положительных отзывов на Voodoo3 было бы до боли мало. Сразу стоит понять, что Voodoo3 был ответом на TNT2. А вовсе не на Ultra, и тем более не на GeForce. Можно сказать, что на Ultra компания ответила Voodoo3 3500. Но эта модель по данным из самой компании была настолько непопулярна и невостребована пользователями, что 3dfx была вынуждена уменьшить производство V3500.
Voodoo2 и 3 основательно устарели, API Glide слабо прижился на рынке и качества нового продукта придётся оценивать наравне со всеми. А продукт тот ещё... Нет поддержки T&L, мало информации о вероятной поддержке других интересных технологий, например обьёмных текстур. Зато много говорится о T-Buffer, о поддержке дополнительных эффектов которого пока никто не заявил, и о высоком Fillrate, который при проверке оказывается не такой уж и высокий. Плюс все помнят о внешних блоках питания для старших моделей. VSA-100:
Адресует до 64Мб памяти на чип;
Поддерживается текстурное сжатие FXT1 от 3dfx и DXTC из DirectX (S3TC);
Поддерживается работа с полноцветными текстурами (32 бит);
Частота чипа ожидается в районе 166-185Mhz;
Поддерживается работа в многочиповом SLI режиме.
Технологии и эффекты T-Buffer, Motion Blur, Focal Blur, Soft Shadows и Real Soft Reflections
Последнее время компания ведёт себя невразумительно. Приверженцы поверили, что у компании есть так называемый A1 силикон, нормально работающий на высоких частотах и не имеющий глюков. На последней презентации, проводившейся на Max 3dfx основательно опозорилась, не сумев продемонстрировать нормальную производительность ядра, качество и скорость игр. Компания даже не показала специальную версию "Tomb Rider", которая судя по всему специально готовилась для выставки. Обещав показать нормальные сэмплы на GDC 3dfx и тут не сдержала своё слово.Более того, на GDC мы не увидели ни одной нормальной платы на VSA-100. У компании нет даже одного отлаженного технического сэмпла для демонстрации?
В общем, когда продукт выйдет, он скорее всего не окажется чем-то супер революционным. А учитывая возросший авторитет nVidia и подобность продуктов конкуренции (у всех есть T&L, большой Fillrate, сжатие текстур по S3TC и т.д., но нет T-Buffer) сложно ожидать популярности этой технологии. Выпусти 3dfx свой продукт к осени прошлого года, ещё можно было бы посомневаться. Может и в X-Box оказался бы процессор от 3dfx. Ещё был шанс выплыть на авторитете
Для поддержания имиджа компания анонсировала спецификацию чипа "Rampage". Выглядело очень комично - не выпустив один продукт компания уже разводит пошире руки, показывая как крут будет другой. Rampage:
Частота ядра 200-250 MHz;
От 128 до 256Мб DDR SDRAM памяти с частотой 300-360 Mhz;
Скорость заполения в интервале от 1.5 до 2.5 гигапикселей в секунду;
75 миллионов полигонов в секунду без эффектов или 35 миллионов с ними;
До 25 источников освещения;
Ядро акселерации вокселей;
Поддержку некоего "Нового API", который ещё нужно будет поддержать, а для этого обосновать, чем же он такой API-стый, чтобы делать игру на него, а не на OpenGL и Direct3D;
RAMDAC: 360-450 MHz скорее всего станет стандартом к моменту появления
Что касается сроков, то это зима 2000-2001. Думаете 3dfx обгонит всех и вся? Вот так вдруг поднимется, расправит могучие плечи и поставит всех на колени? Если да, то вы большой оптимист. Нельзя исключать и такого расклада, но с чего бы это вдруг подниматься? Люди всегда верили в чудо, но практика показывает что чудеса создаются упорнейшим трудом и огромными инвестициями. Ни того ни другого мы и не видим.
nVidia
По их ожидаемым продуктам информации больше всего, и это не смотря на то, что компания играет в молчанку. Можно точно сказать, что готовящиеся продукты будут быстрыми и многофункциональными. У NV15 будет приличный запас скорости заполнения, обновлённое TCL ядро, поддержка сжатия текстур по S3TC, поддержка обьёмных текстур, поддержка рельефного текстурирования тремя методами (Emboss, Dot Product 3, EMBM), улучшенная поддержка DVD. Помноженное на поддержку разработчиками всё вместе это скорее всего поднимет компанию на олимп лидера 3D индустрии. Компания чётко разделила продукты по сегментам. Уже сегодня пользователь имеет огромный выбор - TNT2 Vanta, TNT2 M64, TNT2, TNT2 Ultra и несколько более продвинутых вариантов, плюс GeForce 256 SDR и DDR, 64Мб модели, Quadro и т.д. - акселератор на любой вкус. Самые отлаженные драйвера, работа в профессиональных пакетах моделирования и полная совместимость с ними. Весною мы ожидаем NV15 в двух номинациях - игровой акселератор 2000 года и профессиональный акселератор по относительно низкой цене. Не стоит заранее воздвигать nVidia на олимпийскую высоту. Если всё будет по плану, она сделает это сама. К середине года мы ждём NV11 в мобильном исполнении и возможно карты на рабочий стол на его основе. GeForce SDR к тому моменту скатится на уровень нынешних M64/Vanta, GeForce окажется где-то в районе нынешнего TNT2, NV11 займёт место Ultra, а на верху окажется NV15. Причём по достоверным данным чипов уже сделали очень много, сэмплы давно разосланы а играть в молчанку компания закончит 25-го апреля. Вот тогда и посмотрим...
NV15
0.18 микрон;
Частота чипа ожидается в районе 160 - 200 МГц;
Частота памяти от 183 МГц до 200 МГц для SDR и от 333 МГц до 400 для DDR;
Поддержка памяти SDR, DDR SDRAM/SGRAM;
Внутрення шина памяти 128 и 256 бит;
До 128 Мб памяти;
Производительность в режиме мультекстурирования 640-800 млн. пикселей (Ge Force 256 - 240 млн. пикселей);
RAMDAC 350 МГц;
PCI 2.2 и AGP x4 (включая режим Fast Writes);
Поддержка HW T&L, FSAA, HDTV процессор, edge anti-aliasing (краевое сглаживание);
Стоимость от $300 до $350.
NV11 (отличия от NV15)
Мобильный вариант NV15 пониженным энергопотреблением;
Внутрення шина памяти 128 бит;
Dual Display - подключение двух мониторов, либо монитора и TV.
Matrox
После появления во всех отношениях интересного G400 Max компания пропала.Прошёл было слух о возможности T&L в G400, но и он затих.В ближайшее время есть информация о готовящемся G450. Вот что получено сегодня::
G450
Ядро G400 MAX с выходом RGB, NTSC/PAL и DVI;
64bit DDR SDRAM (даже не 128!);
Поддержка DDR FCDRAM;
Исполнение в виде 320 pin PBGA;
0.18 микрон, 6-ти слойный металлический процесс производства;
Начало продаж в марте этого года;
Версии с 16Мб Frame Buffer 2 x (2M x 32 DDR) и 32Мб 4 x (4M x 16 DDR) или 4 x (2M x 32 DDR);
16Мб версия G450 будет работать с памятью на чатоте 166MHz (в случаеFC DDR, вероятна частота 200MHz) и использовать 64-х битную шину памяти;
Ну что тут можно добавить? Конечно поддержка EMBM, возможно поддержка S3TC, никакого T&L, никаких наворотов. Но в отличие от 3dfx более богатые возможности работы с видео, наверняка очень высокое качество 2D, низкий нагрев, выход на несколько мониторов. Своего покупателя эти платы найдут, но хардкорным геймером он не будет.
За этими слабеньким продуктами планируется мифический G800. Когда-то считалось, что он будет конкурентом GeForce 2. Конкурентом GeForce 256 планировался так и не появившийся G600. Сегодня насчёт G800 известно лишь то, что скорость заполения будет вдвое выше G450, что это будет многочиповое решение вроде VSA-100, наконец появится аппаратный T&L, DirectX8 Shader и новые ICD драйверы. Если всё будет по плану, эта карта может оказаться серьёзным конкурентом NV15. Однако дата его появления ближе к выходу NV20. Впрочем, все склоняются к мнению, что NV20 будет незначительной доделкой NV15.
ATi
Чип Rage 6 безусловно перспективен, поддерживаются интереснейшие технологии. Мы не верим в чудеса, а зная паталогическую лень ATi в продвижении своих новых продуктов сомнительно, что их решение займёт первые места по популярности в чартах. Хотя предпосылки есть - TCL второго поколения, более точная интерполяция кейфреймов анимации, работа с несколькими видами наложения шаблонов окружения, поддержка рельефного текстурирования, сжатия текстур, высокий Fillrate и вероятность работы в режиме Maxx. А теперь задумайтесь, где ATi Rage 128 Pro? Карты на его основе очень конкурентны, но их нет. А RageMaxx? В продаже у нас совсем недавно.А компания очень перспективная. Rage6 стоит ожидать в Мае, и если всё так, как сказано в их white paper, то GeForce 2 придётся попотеть.
Rage6:
Технология - 0.18 мкм;
Шина данных ядра - 256 бит;
Частота ядра: от 200 МГц до 400 МГц;
Поддержка до 128 Мб памяти;
RAMDAC: от 350 МГц до 400 МГц;
Технология Charisma Engine (clipping, vertex skinning, keyframe interpolATIon, perspective devide, triangle setup)
Производительность HW TCL: около 20 млн. текстурированных полигонов в секунду
Аппаратная установка 8 источников света для всей сцены
Рельефное текстурирование: Embosing, Dot Product, EMBM
Аппаратная поддержка HDTV, HDTV, MPEG2 (DVD), стерео очков
Технология SLI (от двух и больше чипов на плате);
S3
Вообще ничего концептуально-нового. Давным давно обещают Savage2000+. Можно было бы подумать о его преобретении, но драйвера так и не отлажены, S3TC перестало быть прерогативой S3, о новых возможностях T&L ни слова.Savage2000+ смог бы конкурировать с NV11, но никак не с GeForce 2.
Bit Boys
Если быть откровенными, то в БитБоев не верится. Хорошие характеристики, попадают в струю по скорости и заявленным возможностям, но собираются разместить до 12 мегабайт встроенной памяти в полутора миллионах транзисторов. Вот это настораживает. Плюс в те же полтора миллиона будет помещено T&L ядро, RAMDAC, растеризирующая часть и 2D контроллер. Пожалуй слона в коробочку из под анализов легче разместить. Массовое появление продуктов запланировано на конец второго квартала этого года.
====================
Вентилятор моего Annihilator'а трещит. Как от этого избавиться?
Отвинтите вентилятор от платы и поднимите его. Сдуйте пыль, собравшуюся вокруг вентилятора. Потом отклейте наклейку с обратной стороны вентилятора (той, которая обычно не видна) и капните каплю масла на маленький металлический участок, который находится под наклейкой. Звук должен прекратиться.
Часто спрашивают: Какое масло использовать?. Я слышал, что использование пищевого (растительного) масла не наносит вреда карточке. Я рекомендую 'conventional' масло.
Как заменить кулер на GeForce?
Какой лучше использовать кулер для GeForce?
Есть два выбора: Во-первых :TennMax Lasagna BGA cooler. Это хорошие кулеры, хотя и немного дорогие. Если TennMax кулер слишком дорог, попробуйте ThermalTake Blue Orb cooler. Он дешевле, чем TennMax и тоже хорошо охлаждает, но нарушит работу первого PCI слота.
Почему с драйверами Creative у меня появляется только один регулятор оверклокинга?
Это известное ограничение существующих драйверов Creative. Утилиту, которая позволит вам устанавливать частоты и ядра, и памяти, можно загрузить здесь.
В чем разница между Annihilator и Annihilator Pro?
В чем разница между платами с памятью SDR и DDR?
Как определить, какая у меня плата - с SDR или с DDR?

На плате Annihilator установлена память SDR, на плате Pro стоит память DDR. DDR вдвое быстрее, чем SDR, так что при высоких разрешениях (1024x768x32 и выше) плата с DDR работает значительно быстрее, чем плата с SDR.
У микросхем памяти SDR выводы расположены на двух сторонах и она использует SDRAM; у микросхем DDR выводы на всех четырех сторонах и она использует SGRAM.
Учтите, что некоторые карточки с DDR записаны в Какие есть разновидности GeForce, и в чем между ними разница? как имеющие вдвое более быструю память, это от того, что DDR пересылает данные дважды за каждый такт.
Что такое Unified?
Где взять Unified?
Почему мой серийный номер не срабатывает на странице Unified?

Unified - это Glide wrapper, разработанный Creative и позволяющий запускать игры, предназначенные только для 3dfx, на платах не от 3dfx.
Однако Unified может не принять серийный номер вашей платы (следует пробовать номер, который начинается с T). Если вы все же хотите заставить его работать, отправьте свой серийный номер по E-mail Уильяму Боллу, и он вышлет вам файлы.
–––––––––––
Q.Каков должен быть размер апертуры AGP?Как изменить размер апертуры AGP?
A.Параметр AGP Aperture можно изменить только в BIOS Setup - название может слегка отличаться, так что поищите параметр, который измеряется в мегабайтах (MB) и может иметь значения типа 16, 32, 64, 128 и 256. Разные системные платы имеют разные диапазоны допустимых значений; моя плата, например, разрешает только установки 64 или 256.
Если возможно, размер апертуры должен быть равен половине объема оперативной памяти и не должен приближаться снизу ко всему объему памяти или равняться ему. Можно, однако, выиграть 2-3 кадра в секунду, установив размер апертуры AGP равным 256 независимо от того, сколько у вас памяти, а в некоторых играх такая установка решает проблемы с изображением.
Имейте в виду, что слишком малый размер окна AGP (меньше примерно 16) фактически отключает AGP, что приводит к снижению скорости, хотя может решить проблемы стабильности.
Существуют также программы, у которых возникают проблемы (например, запинки), когда размер апертуры установлен слишком большим. Поэкспериментируйте и выясните, какой размер апертуры лучше подходит к вашему компьютеру и программам.
Вероятно, если вы установите размер апертуры AGP равным 256, вы сможете загрузить 64-мегабайтный тест текстур из 3DMark2000.
Q.В BIOS'е у меня есть опция Video Memory, которую можно установить в UC или USWC. А как надо? A.Установка значения в USWC должна увеличить производительность, но не намного. Значение USWC может вызвать проблемы после POST. Значени UC может вызвать зависание после режима Standby. Creative Labs рекомендует устанавливать в UC. В целом, лучше попробовать сперва значение UCWC, и, в случае возникновения проблем, установить UC.

Как использовать последнюю версию Video BIOS, не обновляя флэш-память Video BIOS?
ВНИМАНИЕ: Этот раздел адресован только тем, кто понимает, как работает DOS. Не пишите мне письма с вопросами о том, что такое стандартная память или резидентная программа, как использовать EMM386 или LOADHIGH, или как редактировать файл autoexec.bat file - если вы этого не знаете, значит, этот раздел для вас слишком сложен.
Существует программа под названием VGABIOS, написанная NVIDIA. Это резидентная программа, которая загружает Video BIOS после загрузки компьютера, так что вы используете эту BIOS вместо BIOS вашей видеоплаты.
Это означает, что если что-то пойдет не так, вы можете просто убрать VGABIOS из списка загрузочных файлов и продолжать пользоваться старой BIOS (на нее эта процедура влияния не оказывает). Недостаток этого метода в том, что, во-первых, эта программа занимает 64 Кбайт памяти (Ах!), и, во-вторых, он дает маленькое-маленькое замедление.
Эту программу нельзя запускать под Windows - вы должны запустить ее либо перед запуском Windows, либо в режиме MS-DOS.
Синтаксис программы таков: 'vgabios -fFILENAME', где FILENAME - имя файла видео-BIOS. Эту команду можно записать в файл AUTOEXEC.BAT и запускать при загрузке.
Если вы хотите сэкономить 64 килобайта стандартной памяти, вы можете загрузить VGABIOS в HMA командой LOADHIGH (после загрузки EMM386).
Информацию об эталонных файлах Flash BIOS от NVIDIA см. в вопросе 'Где найти последнюю версию NVIDIA Flash BIOS и какую версию надо использовать?'.


Q.Прошивка Video BIOS не удалась! Что делать?
Подключите PCI'ную видеокарту и подсоедените к ней монитор. Используйте NVFlash, чтобы перепрошить Video BIOS у GeForce.

Video BIOS поврежден, и я не могу использовать программу производителя карты. Что делать?
Используя WinAce откройте файл flash-програмы and попробуйте вытащить оттуда сами данные, которые будут прошиваться. Теперь, используя NVFlash и полученные данные прошивайте. Испытывалось с файлами ASUS BIOS.
Также вы можете попросить кого-нибудь с такой же картой, задампить VIDEO BIOS с помощью NVFlash и прислать его вам.
Подробнеее о NVFlash: 'Где найти и как использовать NVFlash?' question.


После установки GeForce, мне доступны только 640x480 и 16 цветов. Что делать?
Убедитесь, что вы установили Assign IRQ to VGA в BIOS. Убедитесь, что вы полностью деинсталировали предыдущие драйверы, прочитайте 'Как полностью деинсталлировать старые драйверы NVIDIA GeForce или Creative Labs Annihilator?'. Убедитесь, что вы установили последние AGP драйверы для вашей системной платы. Убедитесь, что у вас правильно установлены драйверы монитора. Если вы используете standard Windows monitor, попробуйте другой.


Q.У меня карточка ASUS AGP-V6800 Deluxe с новым BIOS, но у меня серьезные проблемы.
A.Это вызвано тем, что старые ASUS AGP-V6800 Deluxe используют 8 Infineon RAM чипа, а новые - 4 Samsung RAM чипа, с другим BIOS (version 2.10.02.10.04). ASUS предлагает "новый" BIOS на своем сайте. Он включает sidebanding (version 2.10.02.10.02 sba), но работает только с 8-ми чиповыми картами, использование нового BIOS на 4-чиповых карточках может привести к возникновению проблем и порче изображения.2.10.02.10.04 BIOS, который может вам помочь:
Вам понадобится NVFlash - подробнее прочесть можно здесь: 'Где найти и как использовать NVFlash?'.


Компьютер делает долгие (20 секунд) паузы при загрузке или выводит сдвинутый текст очень крупным шрифтом. Что делать?
Обе проблемы могут быть связаны с вашим монитором. Попробуйте сменить монитор и посмотрите, не поможет ли это. Первая проблема, в частности, видимо, вызывается несовместимостью с DDC. Пауза может также наблюдаться при входе на вкладку Output Devices в Display Control Panel.


Win 9x зависает перед инициализацией звука, появляется зеленая полоса сверху экрана. Что делать? Возможно, что проблема вызвана утилитой Backup'а, которая во время загрузки пытается найти новое устройство записи на магнитную ленту. Исправить положение можно, удалив файлы drvwppqt.vxd и drvwq117.vxd в директории WindowsSystemIosubsys. Если это помогло, найдите в реестре все строки 'TAPEDETECT' и удалите их. Если ваше устройство для записи на ленту перестало работать, просто переустановите MS Backup. А если вы не используете MS Backup - деинсталируйте его.
Убедитесь, что на панели управления NVIDIA разрешена VSYNC.
Еще одно возможное решение - просто отключить звук "Запуск Windows".
Если у вас установлена IomegaWare попробуйте, удлаить ее. Если помогло, используйте просто Iomega Guest.
Почитайте 'Моя GeForce постоянно зависает. Что делать?'.
Попробуйте установить update для BIOS материнской платы.
Часто, на Gigabyte'овских платах на чипсете VIA KT133 такое решение помогает.
На матернках, которые поддерживают только AGP 1.0, эта проблема решается приклеиванием изоленты на последнюю пару контактов AGP-коннектора GeForce Самые далеко расположенные от гнезда монитора контакты с обеих сторон. Тестировалось на Chaintech 6BTM.


При включении (иногда или постоянно) компьютер сообщает объем видеопамяти меньше 32 Мбайт?
Попробуйте немного изменить частоту системной шины.
Дело может быть в перегруженном блоке питания. Попробуйте повысить мощность бп по меньшей мере до 300 Вт.
Если у вас плата Creative, свяжитесь с Creative, - они дадут вам новую версию Video BIOS.
Также вы можете найти ссылку на новый BIOS в вопросе 'Есть ли новые версии Video BIOS для Annihilator'.
Если все это не поможет, возможно, следует сменить плату. Дело может быть в плохой припайке одного или нескольких чипов памяти, которая и вызывает эту неполадку постоянно или периодически.


У меня системная плата с чипсетом Intel i815 и очень низкая производительность 3D-графики. Что делать?
Попробуйте установить драйверы для чипсета Intel:


У меня системная плата с чипсетом Intel i820 и разнообразные проблемы. Что делать?
У этого чипсета есть проблема с функцией GeForce AGP Fast Writes, которая приводит к замедлению работы 3D-приложений. Вы можете отключить AGP Fast Writes с помощью файла fwoff.reg,
Если Вы когда-либо захотите включить Fast Writes обратно, воспользуйтесь файлом fwon.reg
При драйверах версий 5.08+ и в особенности 5.14+ необходимости отключать Fast Writes нет, - кажется, в них эта проблема решена.
Вообще у чипсета i820, по-видимому, немало проблем с GeForce. В настоящее время решения этих проблем нет, - если вы думаете покупать новую системную плату, не покупайте плату на i820, если не можете предварительно проверить свою GeForce с ней или вернуть ее назад без проблем. В то же время у некоторых пользователей никаких проблем с чипсетом i820 не возникает - раз на раз не приходится.


У меня системная плата с чипсетом Intel i840 и проблема с синим экраном смерти?
Обновите BIOS на видеоплате.


У меня системная плата на VIA, и я не могу включить AGP (или компьютер виснет) под Win2K?
Попробуйте новый драйвер от Microsoft viaagp.sys, это может устранить проблему зависания Win2K.


У меня системная плата с чипсетом VIA, и я не могу включить AGP2X и AGP4X. Что делать?
Убедитесь, что VIA AGP драйвер установлен в режиме 'Turbo', иначе, у вас будет только AGP1X. Убедитесь, что в BIOS на материнской плате включена поддержка AGP2X и AGP4X. Если у вас материская плата ASUS A7V, 1004 версия обновления BIOS, скорее всего, отключает AGP4X. Попробуйте 1003a или 1005+ версии. Убедитесь, что у вас установлены последние эталонные (или утечка) драйверы.


Cистемная плата с чипсетом AGP и я не могу включить AGP4X  чтобы это не вызвало сбоев вработе?
Следующий способ предложил Gary Shapiro:
Проверьте установки в BIOS, обычно в Chipset Features Setup есть AGP Driving Value. Значение этой опции управляет хронометражем AGP драйвера в Windows. Присвоив ему зн. от 00 до FF вы можете решить проблему.
Чтобы изменить предыдущий параметр, вам необходимо изменить AGP Driving Control. Установите значение 'MANUAL'.
Попробуйте поставить значение 'DA' или 'EA'. Используйте 'DA' для VIA Apollo Pro 133A, а для KT133 - 'E7'.
Если проблема не решена, попробуйте другие значения. На мой взгляд, значения, оканчивающиеся на 'A' - лучше всего.
Если в BIOS нет AGP Driving Value, попробуйте две программы: WPCREDIT и WPCRSET.
WPCREDIT используется для изменения BIOS "на лету". После холодной перезагрузки изменения исчезнут WPCRSET - вносит изменения при каждой загрузке Windows.
Рекомендую использовать WPCREDIT, чтобы выбрать нужное значение, а потом WPCRSET, чтобы использовать этот значение постоянно. Учтите, что неверное значение может повесить систему или повредить изображение. В процессе тестировани (подбора значения) можно использовать WPCREDIT даже, если в BIOS есть AGP Driving Value.


Cистемная плата на VIA KX133, и объем видеопамяти и памяти текстур определяются неверно?
Попробуйте установить 'Video Cacheing Mode' (режим кэширования видео) в BIOS на UC (Uncacheable) вместо UCWC (Uncacheable, Write Combining).
Попробуйте установить последнюю версию BIOS для вашей системной платы.
Попробуйте установить последние эталонные драйверы NVIDIA. Драйверы версий 5.16+ могут решить эту проблему.
Попробуйте поставить свежий VIA AGP драйвер.
Попробуйте изменить размер апертуры AGP в BIOS.
Попробуйте воспользоваться ключем реестра, описанном в вопросе 'Как включить AGP4X в драйверах версии 5.16 или выше на материнской плате VIA 133 МГц?'.
Попробуйте отключить загрузку логотипа Windows в процессе загрузки с помощью TweakUI (закладка Boot tab, снять чекбокс 'Display Splash sceen while booting') или добавив в файл c:msdos.sys строку "Logo=0" (без кавычек) в раздел [Options].
Загрузите Windows как обычно, затем, после полной загрузки Windows, нажмите и удерживайте левый SHIFT, щелкните Пуск, Перезагрузить компьютер. Когда появится сообщение 'Перезагрузка Windows...', можете отпустить клавишу SHIFT. Теперь вы получите правильный объем видеопамяти и памяти текстур и сможете запустить 64-мегабайтный тест текстур в 3DMark2000, а также установить размер окна AGP на 256, не обрушивая систему.
К сожалению, эту процедуру необходимо выполнять при каждой загрузке Вашего компьютера. Другого лекарства нет.


У меня проблемы с мерцающими текстурами?
В некоторых случаях эта проблема решается установкой драйверов версии 3.67 и выше. Если это не помогает, вот некоторые другие решения:
Попробуйте установить другой размер окна AGP (но не меньше 16, чтобы не отключать AGP).
Если в BIOS есть 'PCI Delay Transaction', отключите ее.
Попробуйте установить последнюю версию BIOS вашего ПК.
Уменьшите 'PCI Texture Memory Size' в панели управления NVIDIA до минимума.
Попробуйте подключить вентилятор центрального процессора к другому разъему системной платы.
Снимите и установите заново все компоненты на системной плате (включая кабели питания и GeForce).
Попробуйте немного увеличить напряжение ввода/вывода системной платы в BIOS.
Если у вас не один чип памяти, попробуйте снять все, кроме одного. Попробуйте также убрать лишние накопители, вентиляторы и платы. Если это поможет, попробуйте поставить более мощный блок питания (разумно начать с 300 Вт).
Попробуйте включить режим AGP Turbo, поднять частоту шины, или установить отношение AGP на 1:1, (в указанном порядке) - это увеличивает нагрузку на плату, но во многих случаях помогает.
Испытав все перечисленные меры, попробуйте повысить частоту шины и установить отношение AGP равным 1:1.
Попробуйте переключиться в режим AGP1X в BIOS или через AGP Wizard (более подробная информация здесь). Это может помочь, но немного уменьшит производительность.
Если позволяет системная плата, попробуйте установить размер окна AGP равным 16 или меньше. AGP будет отключена, но это может решить проблему. Можете также отключить AGP с помощью DXDiag.


У меня проблемы с мерцанием, разрывами и многоугольники в ненужных местах в 3D программах?
Если у вас проблемы в Quake 3, почитайте: 'С новыми версиями драйверов небо в Quake 3 Arena имеет лоскутную структуру. Как от этого избавиться?' и 'У меня появляются разрывы (tearing) в Quake 3 Arena независимо от того, включена ли VSYNC или нет. Как с этим справиться?'.
Если у вас проблемы с Half-Life, почитайте 'У меня проблемы с изображением в Half-Life. Что делать?'.
Если у вас мерцает экран в Rogue Spear, почитайте 'У меня мерцает экран в Rogue Spear. Что делать?'.
Если появляются разрывы, попробуйте увеличить частоту развертки, почитайте: 'Как установить частоту кадровой развертки больше 60 Гц?'.
Если появляются разрывы, попробуйте выключить V-SYNC в панели управления NVIDIA.
Rich Carless предложил:
Если есть разрывы в OpenGL-программах, то на закладке OpenGL в панели управления NVIDIA поменяйте 'Buffer flipping mode' с 'Auto-select' на 'Use block transfer'.
Если появляются многоугольники в Direct3D-программах, на закладке Direct3D в панел управления NVIDIA отметьте 'Enable alternate depth buffering technique'.
Поставьте новую версию Video BIOS. Почитайте: 'Где найти последнюю версию NVIDIA Flash BIOS и какую версию надо использовать?'.


У меня щели между текстурами, маленькие мигающие треугольники или искаженные текстуры?
Если проблемы в Quake 3 Arena, почитайте: 'С новыми версиями драйверов небо в Quake 3 Arena имеет лоскутную структуру. Как от этого избавиться?'.
Если у вас Reelmagic Hollywood Plus или другая плата DVD-декодера, попробуйте ее убрать и посмотрите, не поможет ли это. Иногда такая проблема возникает для плат с поддержкой ATA66. Если дело в этом, немедленно уберите DVD-декодер, поскольку у некоторых пользователей, кажется, это приводило к повреждению GeForce.
Попробуйте переписать BIOS видеоплаты версией, записанной на компакт-диске, для чего скопируйте файлы BIOS на жесткий диск, перезагрузитесь, нажмите F8 при появлении текста Запуск Windows 9x, выберите 'Safe Mode Command Prompt' и запустите утилиту. Версия на CD та же самая, что и версия на видеоплате, но эта процедура может помочь.


У меня ошибки, связанные с desk.cpl. Что делать?
Удалите все .DLL файлы, которые начинаются на (без кавычек) 'Nvrs' из WindowsSystem.


У меня ошибки, связанные с DDHELP.EXE. Что делать?
Возможно это из-за кривой установки DirectX. Попробуйте переустановить их.


На вкладке DXDiag Display указано AGP Not Available. Что делать?
У вас Windows 95? Нужна версия OSR2 и установленное дополнение USB, или установите Win98.


Не могу запустить ни одной Direct3D программы, хотя OpenGL работает нормально. Что делать?
Если у вас Windows 2000 и NetMeeting, проблема может быть вызвана тем, включен Remote Desktop Sharing или запущен NetMeeting (или не нормально закрыт) If you close NetMeeting, this should fix the problem.


Я не могу запустить программы на OpenGL, а программы на Direct3D работают нормально?
Попробуйте выполнить следующие действия:
( Нажмите Пуск / Выполнить.
( Введите "win.ini" (без кавычек) м нажмите OK.
( Найдите строку "DVA=0" (без кавычек).
( Поставьте точку с запятой (;) перед DVA (после этого строчка будет выглядеть так: ";DVA=0" (без кавычек))
( Сохраните и закройте файл Если в результате проблемы усугубятся, просто уберите точку с запятой.
Эта строка - настройка Direct Video Access.
Учтите, что такая строка есть не всегда, и если ее нет, придется попробовать другое решение.
Если при запуске из Windows 2000 программ с OpenGL, у вас появляется сообщение об ошибке "GLimp_EndFrame()-SwapBuffers() failed!", попробуйте или установить последние эталонные драйверы, или использовать файл реестра fix_glimp_error.reg,
Если у вас материнская плата Tyan Trinity 400, попробуйте установить BIOS версии 1.0.
Попробуйте переключиться в AGP1X через BIOS setup или AGP Wizard (более подробная информация: Каким образом можно принудительно включить AGP1X, вместо AGP2X или AGP4X?). Это может помочь, но немного снизит производительность.


Программы на OpenGL очень медленно работают под Win2K или рушатся?
Попробуйте загрузить и установить файл реестра iopagelock.reg -


У меня 1 Гбайт памяти, и Windows не грузится. В чем дело? Проблему можно решить с помощью меры, приведенной в статье Microsoft Knowledge Base здесь.
This is a known issue with Windows 9x, due to the way in which it accesses memory. Because Windows 2000 uses the NT style of accessing memory, the problem does not occur. The problem only turns up with the GeForce because it is one of the first cards to to be 100% true AGP (most other cards still address memory via the PCI bus because developers can design the cards to be cheaper that way).


У меня Abit KA7 или ASUS P3V4X, и иногда при включении компьютер не может обнаружить видеокарту?
Вам нужно вернуть вашу системную плату производителю (Abit) для того, чтобы ее модернизировали. Свяжитесь с Abit, чтобы получить дополнительную информацию.
Если у вас ASUS P3V4X, прочитайте 'У меня ASUS P3V4X и проблемы с GeForce. Что делать?'
Включение монитора перед включением компьютера также может решить эту проблему.


Когда я запускаю 3D-приложение, экран гаснет (отключается монитор), однако компьютер не зависает?
Попробуйте переключиться в Safe Mode. Откройте Панель управления -> Система и удалите все мониторы, чтобы после перезагрузки Win автоматически обнаружила их. Попробуйте изменить частоту кадровой развертки. За дополнительной информацией обратитесь к вопросу "Как установить частоту кадровой развертки больше 60 Гц?" Если у вас отсутсвует драйвер для монитора, установите 'Plug and Play Monitor' из списка 'Standard monitor types'
Подобная проблема могла возникнуть из-за недосаточной мощности блока питания. Попробуйте отключить другие устройства (CD-ROM накопитель, вентиляторы), и, если это поможет, установите более мощный блок питания. Почитайте: 'Насколько мощным должен быть мой блок питания, чтобы я мог использовать GeForce?'
Может быть, ваша системная плата не обеспечивает достаточно мощности для GeForce - почитайте 'В чем проблема с GeForce и ранними версиями системных плат, не обеспечивающих достаточной мощности?'
Попробуйте принудительно включить AGP1X. За дополнительной информацией обратитесь к вопросу Каким обрзаом я могу принудительно включить AGP1X вместо AGP2X и AGP4X?


Все 3D-программы работают очень медленно. Что делать?
Если у вас не Intel'овская материнская плата, убедитесь, что у вас последняя версия драйверов AGP.
Если у вас low-end CPU, попробуйте поставить другой. Только hi-end CPUs позволяют использовать все преимущества GeForce, несмотря на T&L движок. Часто, AMD Super Socket 7 чипсеты не могут обеспечить хорошей производительности, из-за низкого качества выполнения AGP на материнских платах с Super Socket 7 motherboards.


У меня плохое 2D-изображение (размытое, с тенями, смазанный жирный шрифт). Что делать?
У меня проблемы с 2D-изображением - дрожит текст. Что делать?

Убедитесь, что кабели питания не располагаются вблизи от видеокарты и кабеля видеосигнала монитора.
Возможно, эта проблема проявляется только после выхода монитора из режима пониженного энергопотребления. Попробуйте перезагрузиться.
Попробуйте установить параметр 'Monitor timing' на вкаладке 'Other options' в панели управления NVIDIA сперва в GTF, а затем в DMT.
Попробуйте изменить частоту кадровой развертки.
Попробуйте вручную добавить следующий ключ в файл pstrip.ini в PowerStrip 2.62:
[Options]
ClkDeviation=n
где n - целое число между 5 и 1000. При всех изменениях режима PowerStrip будет пытаться подбирать близкий, но по возможности более стабильный режим развертки. Снижение дрожание более вероятно при малых n, однако при этом частота развертки может сильнее отличаться от желаемой. Попробуйте установить значение 250 и снижать его до достижения приемлемого результата.
Возможно, у вашего монитора нет 75-омных терминаторов на неиспользуемых коаксиальных и многоштырьковых разъемах. У некоторых мониторов сзади есть (очень маленький) переключатель, позволяющий включить терминаторы (например, у Eizo Flexscan T562). У такого переключателя с одной стороны может быть нарисован значок бесконечности, а с другой стороны - надпись 75 Ом. Установите его на 75 Ом.
Если у монитора есть коаксиальные входы, попробуйте найти кабель, чтобы подключиться через них. Кабель должен быть коаксиальный, на 75 Ом.
Попробуйте установить РЧ фильтр на кабель монитора.
Попробуйте установить внешний усилитель VGA-сигнала между GeForce и монитором.
Имейте в виду, однако, что такие буферы стоят дорого!
Может быт, дело в неисправной плате. Попробуйте заменить ее, если она еще на гарантии.
Попробуйте другой монитор и кабель.


У меня установлен TwinView, но после перезагрузки второй монитор выключается. Что делать?
Почитайте статью на eVGA.com:


Не получается использовать OpenGl с двумя мониторами.
Это известная проблема Microsoft OpenGL и TwinView. Единственное решение - отключить один монитор.
Также такая проблема появляется, если вы используете одну видеокарту с двумя выходами (TwinView). OpenGL будет рабоать, если каждый монитор вы подключите к отдельной видеокарте, и если обе они - NVIDIA.


При запуске Win2K / NT4 у меня мерцает экран?
Попробуйте уменьшить Аппаратное Ускорение (Hardware Acceleration) на одну позицию движка. Это можно сделать на закладке troubleshooting в дополнительных настройках (advanced settings) вашей видеокарты (Windows 2000) или в System Control Panel -> Performance -> Graphics (Windows NT4). Этот шаг добавит вашей системе производительности и устойивости.
При работе в Windows 2000 эта проблема может быть связана с тем, что включена опция отображения тени указателя мыши (Enable pointer shadow). Отключите эту опцию (Control Panel -> Mouse -> Pointer)
Возможно, что вам следует установить стандартную схему курсоров (Control Panel -> Mouse -> Pointer) - "None".
Если вы используете USB-мышь, с возможностью подключения на PS/2, используйте порт PS/2 вместо USB. Это, возможно, устранит проблему с мерцающим экраном, и вам не придется использовать предыдущие методы.


Asus P3C-2000, и при большой загрузке системы возникают проблемы с 3D-приложениями?
Вот информация непосредственно от Asus:
Эта проблема не наблюдается для систем на основе процессоров со 133-МГц системной шиной. Она также не наблюдается для других графических контроллеров, поддерживающих AGP 4X, таких как Matrox G400 и S3 Savage4. Для конфигурации с 100-МГц системной шиной и 100-МГц памятью SDRAM проблема наблюдается только в режиме AGP 4X для некоторых плат P3C-2000. Для ее устранения включите зарезервированный тестовый режим, переставив перемычку JP5 на контакты 2-3 системной платы, если это возможно. В тестовом режиме предусмотрено повышение шумового порога, и, как показали наши лабораторные испытания, в тестовом режиме данная проблема устраняется. Если тестовый режим не решит проблему, свяжитесь с нами непосредственно.
Эту проблему можно также решить, установив на системную плату дополнительный конденсатор, что сделано в последних версиях платы, в которых данная проблема отсутствует. Обновленную конструкцию имеют платы с номером '1.12.' - точка в конце номера версии означает, что проблема решена (естественно, она решена и во всех платах с номером после '1.12.').


Как активировать утилиту оверклокинга в драйверах NVIDIA?
Как активировать меню изменения частоты синхронизации VSYNC в панели управления драйверов NVIDIA?

Для драйверов для Windows 9x, используйте coolbits.reg.
Для драйверов для Windows 2000, версии 5.13 и выше, используйте файл реестра coolbitsw2k.reg .


Coolbits не работает, или я могу регулировать только частоту памяти. Что делать?
Coolbits отключена в наборах драйверов версии 3.75 и 3.76, но рабтает с 3.77 и выше. Проблема решается кпоированием nvcpl.dll из версии 3.72.
Coolbits отключена в наборах драйверов версии 6.50 - 6.67, но рабтает с 6.72 и выше. Для 6.50 проблема решается кпоированием ИСПРАВЛЕННОЙ nvcpl.dll из версии 6.72.Для 6.66 и 6.67 проблема решается nvcpl.dll из версии 6.72.
Coolbits работает со всеми наборами драйверов для Win9x. В Win2000 вам понадобятся версий 5.13 и выше и файл регистра. Смотрите: Как активировать утилиту оверклокинга в драйверах NVIDIA?
Если вы используете последние наборы драйверов Creative и не можете изменить тактовую частоту ядра - добавьте параметр DWord с названием GrfxClock к следующей записи реестра:
HKLM System CurrentControlSet Services Class Display 000 DEFAULTи присвойте ему требуемое значение (значение должно быть в шестнадцатеричном формате).


Почему я не могу установить частоту выше определенного значения, если у других получается намного больше?
Диапазон оверклокинга, по умолчанию в драйверах NVIDIA, шире, чем для драйверов Creative.
Для изменения частоты в драйверах Creative, пользуйтесь движком - дважды кликните в конце движка.
В Win9x для изменения границ регулятора оверклокинга панели управления NVIDIA
Память DDR номинально тактируется со вдвое большей частотой, чем память SDR; следовательно, ее тактовую частоту можно поднять выше.


Выбор видеокарты
P133...166/32MB можно посоветовать не разбрасываться деньгами и либо вообще отказаться от 3D, либо купить максимально разумный Monster3D 4MB, бывший в употреблении. Неплохо пойдут игры 97…98гг.Ничего дороже, для этих машин, покупать не стоит: если хотите играть в новые игрушки - копите на апгрейд.
P166 (MMX)/P200 (MMX)/233 MMX и оверклоченных еще выше, максимальное быстродействие по минимальной цене обеспечат Voodoo2 или Banshee. В случае P166, разница между VoodooGraphics и Voodoo2/Banshee около 30-35%. Можно сносно играть в игры 99-го года, но здесь еще одно условие минимальный размер ОЗУ 64MB. В противном случае HL, Unreal, Sin и многие другие игры, будут просто неиграбельны по причине постоянного свопа.
PII233...PII333/Celeron 266 (и o/c to 400)/Celeron300A/333MHz (not o/c) (минимальный размер ОЗУ 64MB) Voodoo2, Velocity 100, TNT, TNT2 M64, Savage4 карты, причем, V2 и V100, в ряде случаев, могут оказаться сильно предпочтительнее конкурентов (автогонки NFS, Unreal и игры на его движке). Разница в скорости, например, на картах V2 и TNT, в низком (640х480) разрешении, в таких играх может достигать 30%, а это достаточно сильно отразится на играбельности, поскольку системы недостаточно мощны, чтобы обеспечить приличный запас по минимальному fps и эту разницу (30%) вы обязательно почувствуете. V2 проиграет конкурентам в старых D3D-играх, однако не настолько, чтобы жаловаться на скорость.
Карты следующего поколения (V3/TNT2/G400) на подобные системы ставить не стоит. Разница в скорости между ними и рассмотренными выше картами предыдущего поколения будет невелика Однако, если вы собираетесь в ближайшее время модернизировать свою систему до рассмотренного ниже уровня, или если разница в цене вам кажется несущественной, тогда, безусловно, вам стоит рассмотреть именно эти карты.
PII/PIII/Celeron 400-550MHz (включая варианты о/c до аналогичных частот) (минимальный размер ОЗУ - 64МБ, о рекомендуемый - 128MB) - Voodoo3 2000/3000, TNT2/TNT2Pro/TNT2Ultra, Matrox G400, Savage 2000. Хорошо пойдут самые последние игры в разрешениях 800х600х32, 1024х768х16 и 1024х768х32 (последнее разрешение будет играбельно далеко не во всех играх).
На 500-550MHz CPU лучше GF256 DDR (180$), или “удешевленные” варианты - GF256 SDR или GF2 MX (135$) в 1024х768х32 играбельно подавляющее большинство самых последних игр.
В случае нехватки денег Velocity 100 или TNT2 M64.
PIII600/Celeron 566 o/c 850MHz (минимальный размер ОЗУ - 128MB) только GF256 DDR. Удешевленные варианты - GF256 SDR и GF2 MX .
PIII733MHz или o/c до аналогичных частот и выше GF2 GTS или V5500 оба для реализации своего потенциала требуют быстрого процессора. V5500 только для богатых любителей Unreal/Unreal Tournament карта в этих играх вне конкуренции. В остальных играх, он может конкурировать только с GF256 DDR с переменным успехом.
Ну, и наконец, чтобы дать наиболее полное представление, немного о каждом рассмотренном чипсете:
Voodoo Graphics (также известный как Voodoo1) Революционный для своего времени чип, сейчас безнадежно устарел. Максимальное разрешение 640х480, не поддерживаются многие графические фичи. Современные игрушки тянет с большими тормозами.
Voodoo2 при наличии относительно быстрого процессора, хорошо идут самые современные Glide-игрушки (Включая UT и NFS HS). Качество графики приемлемое, если не считать некоторого замыливания 3D-картинки и остальных недостатков (16бит цвет, не так хорош как у V3 и текстуры 256x256). Вариант установки двух карт (SLI) сейчас рассматривать не стоит, ввиду наличия более дешевой альтернативы - V3 2000, имеющего аналогичную производительность, дающего более качественную картинку в 3D, не портящего 2D-изображения вашей карте, основной и все еще актуальный для 3dfx в плане выпуска новых драйверов.
Voodoo Banshee Вторая попытка 3dfx (на этот раз удачная) интегрировать 2D и 3D в одной карте (первой попыткой был Voodoo Rush, здесь не рассмотренный по причине тормознутости, в сравнении с VoodooGraphics, и плохой совместимости с Glide-играми). Banshee урезанная версия V2 1 TMU отсутствие мультитекстурирования. В современных играх чувствует себя плохо, но Анриалы тянет сносно (хотя для этого нужен мощный CPU, на который ставить Banshee не рекомендуется, ввиду наличия более быстрых альтернатив вроде V2 и Velocity100). “Глайдсовместимость” - хуже, чем у V2.
Voodoo3 любителям Unreal/UT рекомендуется. В этих играх валит конкурентов как по скорости, так и по качеству изображения. В остальных рядовая карта, в своем поколении, с большими недостатками (отсутствие 32бит цвета и текстур больше 256х256).
Velocity 100 урезанный вариант V3 всего 8MB и отсутствие мультитекстурирования в Glide/OpenGL-играх. Последний недостаток практически на всех картах Velocity100, можно исправить программно, включив второй TMU в реестре Windows. Имеет все достоинства и недостатки V3, но по причине малого объема памяти, рабочее 3D-разрешение в большинстве игр 800х600. Может испытывать большие проблемы в играх избалованными текстурами (например, Freespace 2). Карта часто некорректно именуется в прайсах как V3 2000 8MB.
Voodoo 5500
карта сочетает высокую цену и относительно низкую скорость, в сравнении с конкурентами. Наконец поддерживает 32бит цвет и текстуры больше 256х256. Ключевая особенность FSAA лучшего, нежели у карт на чипах GeForce, качества. AGP-вариант карты имеет на борту 64MB памяти, которые реально эквиваленты чуть больше 32MB одночиповой карты, поскольку все текстуры дублируются в памяти для каждого из двух чипов VSA-100 и например, в 1024х768х32, эффективный размер ОЗУ (вместе с фрейм-буфером) составляет 38MB. В Unreal/UT карта бьет всех, включая GF2 GTS, в остальных же играх может конкурировать только с GF256 DDR с попеременным успехом.
Savage4/Pro малая процессорозависимость (плохая масштабируемость?). Поддержка фирменной компрессии текстур S3TC облегчает работу с большими текстурами. Поддержка API MeTaL позволяет использовать второй диск UT с большими текстурами. В результате, в этой игре, по качеству бьет Glide и требует много оперативной памяти (>128MB в этом случае). В остальном, требования к памяти умеренные. Кривые драйверы, компенсируемые “прямыми руками” владельца. D3D - слабое место.
Savage 2000 все, что сказано о S4, верно и для S2K, со следующими поправками: S2K - первый GPU-чип. Блок HW T&L медленный, часто программный T&L оказывается быстрее. Драйверы ровнее, чем у S4 , тем не менее, прямые руки требуются. Наличие альтернативы, в виде GF SDR и GF2 MX, лишенных этих недостатков, делает покупку S2K бессмысленной.
Matrox G400 эталон качества 2D. До недавнего времени, у Матрокс были проблемы с написанием OpenGL ICD драйвера для этой карты (эта их вечная проблема, еще со времен G200 J, сейчас решена). По фичам превосходит все ускорители в своем классе. Кроме “стандартных” - 32бит цвет, большие текстуры, имеет трилинейную фильтрацию одновременно с мультитекстурированием и EMBM. Это конечно не бесплатно (-25% скорости за каждую из этих двух фич, но красиво, особенно EMBM).
TNT в прошлом - V2-убийца, во многом состоявшийся. Сейчас устарел, но при наличии соответствующего процессора, позволит вам прилично играть даже в современные игры, в разрешениях 640х480х32 или 800х600х16.
Vanta/TNT2 M64 альтернатива TNT.
Vanta (100MHz core/125MHz mem), чуть медленнее TNT на этих частотах, M64 (125core/150mem) чуть быстрее. Оба чипа урезанные варианты TNT2, (у обоих 128-бит ядро и 64-бит доступ к памяти, в отличие от TNT2, у которой и ядро и доступ к памяти 128-бит) В принципе, Vanta и M64 - один и тот же чип, тактуемый на разных частотах, но M64-карты обычно лучше разгоняются (на них ставят лучшую память, чем на Vanta) и, например, на частотах 150core/200mem, M64 уже почти выходит на уровень TNT2 (125core/150mem). Здесь главное, чтобы память погналась хорошо (чипы M64 обычно гонятся до 150 без проблем).
TNT2/TNT2Pro/TNT2Ultra Разница между TNT2 и Ultra только в частоте чипа: 125MHz TNT2 и 150MHz Ultra. Никаких других отличий в чипах нет (т.е., если провести аналогию с CPU - это как Celeron 366 и Celeron 400). Нюансы в разгоне этих чипов TNT2 с вероятностью 99% погонится до 150MHz (частота Ultra), или даже до 160-170, но не выше. Ultra на 99% погонится до 180-185MHz. Кроме того, на эти чипы ставят память с разным временем доступа, работающую на разных частотах 7-6ns на TNT2 (143-150MHz) и 5.5ns на Ultra (183MHz). Последняя, конечно, и гонится лучше обычно это отличная 5.5ns память, работающая на частотах до 235MHz. В случае TNT2 6ns, наиболее вероятный разгон - 200MHz (“плюс-минус трамвайная остановка”, зависит от конкретной памяти).
TNT2Pro (также известный как TNT2-A) тот же TNT2, единственным отличием которого является более тонкий тех. процесс 0.22мкм (у TNT2 и Ultra 0.25мкм) и более высокая частота 143MHz. Pro - лучше разгоняется, в сравнении с TNT2. Первую, с большой долей вероятности, удастся погнать до 180-185MHz (как и Ультру). С памятью сложнее дефолтная частота для памяти Pro 166MHz это значит, честный производитель поставит 6ns память. Но noname могут ставить чего угодно, а например у Asus встречается и 5.5ns память на этих картах и гонится до 210-220MHz это чуть меньше, чем возможности разгона Ultra (видимо, на Pro ставят недостаточно “отличную” 5.5ns-память J), но Pro всегда предпочтительнее Ultra. Почему? Цена! Чип Pro NVIDIA выкатила на замену обычному TNT2 и разницы в цене карт, на обычном TNT2 и TNT2Pro нет. Более того, некоторые производители, вообще не афишировали переход линейки своих TNT2-карт на новый чип. Ultra же, всегда стоила дороже.
Здесь необходимо отметить, что все указанные отличия верны только для карт бранд-нэйм производителей. Нонэйм (noname) ведет себя непредсказуемо и может ставить память с любым временем доступа на любую карту и даже ставить чипы TNT2 на карты Ultra и 6-7ns память ... практически официально разгоняя ядро и память J.
GF256 SDR/DDR Второй в истории GPU-чип (был объявлен на день позже Savage2000). Карты с памятью SDR несбалансированны с точки зрения производительности чипа-памяти, поэтому ключевым моментом выбора является именно разгоняемость памяти на той или иной карте. Тем не менее, даже без разгона, в большинстве случаев SDR раза в полтора быстрее, чем TNT2Ultra.
GF DDR лишен этого недостатка (пропускная способность памяти в два раза выше, чем у первого варианта и она не является “бутылочным горлышком”). Из ключевых особенностей, влияющих на качество картинки, в сравнении с линейкой TNT, стоит отметить поддержку ДжиФорсами FSAA, трилинейной (и анизотропной) фильтрации одновременно с мультитекстурированием, а также компрессию текстур S3TC/DXTC.
GF2 GTS Основными особенностями GTS, в сравнении с GF256, является более быстрый блок аппаратного расчета T&L, наличие двух блоков текстурирования в каждом из четырех конвейеров, т.е. при наложении двух текстур скорость (fillrate) не падает мультитекстурирование бесплатное. Также стоит отметить анизотропную фильтрацию по 16-ти сэмплам (у GF256 по 8-ми). Благодаря новому HDTV-процессору, улучшено воспроизведение цифрового видео.
GF2 MX Значительно урезанный (и одновременно улучшенный) вариант предыдущего чипа всего два конвейера с двумя текстурными блоками в каждом, поддержка памяти 128-бит SDR (или 64-бит DDR), которая, как и в случае GF256 SDR, является “бутылочным горлышком”. Рабочая частота ядра - 175MHz (против 200MHz у GTS).
Улучшения коснулись в основном 2D-части в первую очередь это технология “TwinView” - возможность вывода изображения одновременно на два монитора (или монитор и телевизор).
Также отмечу технологию DVC (Digital Vibrance Control) поддержка постоянной и регулируемой гаммы во всех видеорежимах, можно забыть о темноте в некоторых играх; также это касается и качества воспроизведения DVD-видео. Производительность чуть выше, чем у GF256 SDR.



30.03.2001Собрание акционеров 3dfx одобрило ликвидацию компании и продажу всех имеющихся в наличии активов своему бывшему конкуренту - NVIDIA. Таким образом, компания 3dfx прекратила свое существование. Теперь - окончательно. Почтим ее минутой олчания...


Matrox Graphics G450 DualHead PCI
Компания Matrox Graphics представила PCI модификацию видеоплаты G450 DualHead. Новинка, в первую очередь, ориентирована на использование в системах, в которых отсутствует AGP порт - к примеру в компьютерах на чипсете i810.


Q.:Мой компьютер стартует, загружается Win, только нет изображения на видео мониторе?   
A.:Совсем не обязательно! Если Вы уверены, что монитор исправен, причиной отсутствия изображения может быть неконтакт видео карты в слоте.
Иногда неправильная установка частотных параметров AGP слота либо попытка использовать недопустимый для данного типа карт режим работы шины, например, 4х вместо 2х, могут привести к подобному результату.
Существует также проблема несовместимости BIOS материнской платы с дополнительным VGA BIOS, установленным на видео карте. При наличии любого другого заведомо исправного видео устройства достаточно установить POST карту, и убедится, что после кода 0Dh появляется изображение на экране монитора       


Prophet II GTS 64
Hercules всегда делал лучшие видеокарты. С продукцией Hercules можно сравнивать Asus, Creative и остальные брэнды. Недвано мы писали о новой видеокарте от Hercules - 3D Prophet II GTS 64. Это 64 мегабайтная видеокарта на базе чипа GeForce2 GTS. По последней информации, Prophet II GTS будет работать на частотах 220/183(366) МГц. Напомню, что штатные частоты GeForce2 GTS - 200/166(333) МГц. Увеличение частоты ядра на 20 МГц должно принести небольшой прирост скорости на системах с мощным центральным процессором. Увеличенная частота памяти поможет ещe: чуть-чуть приблизиться к обещанной скорости заполнения. Однако, этого всe: равно не хватит. Возможно, видеокарта от Hercules по традиции будет хорошо гнаться.
Кстати, цена на 64 Мб вариант обещается 999 DM.


Q.B чем дело с поддержкой АGP 4х у P4, а то не хочется видео менять, если переходить на П4. Конкретно: интересует совместимость ATI RAGE FURY PRO VIVO c ASUS P4T-E
A:Материнские платы на базе чипсетов i845 и i850 не поддерживают видеокарты, которые не могут работать с напряжением 1.5 В. Таких сегодня осталось не слишком много: чипы SIS, 3dfx, а также, внимание, ATI Rage Fury MAXX. Именно MAXX, двухчиповая видеокарта на базе чипов Rage128 Pro. Все остальные современные видеокарты ATI, включая Rage Fury и Radeon, совместимы с системами на базе Pentium-4.


некоторые видеоадаптеры могут приводить к конфликтам в адресе с портом COM4. Чтобы обойти эту проблему, используйте другой последовательный порт или замените видеоадаптер.


Компьютеры с шиной PCI
Если в BIOS разрешено использование видеоадаптером прерывания IRQ и в компьютере используется дополнительный контроллер PCI IDE, видеоадаптер будет работать только в режиме VGA. Чтобы загрузить драйвер Windows 98 для данного видеоадаптера, отключите дополнительный контроллер PCI IDE в BIOS и в диспетчере устройств (вызывается двойным щелчком значка "Система" на панели управления). Также (если этопозволяет BIOS) можно запретить видеоадаптеру использовать IRQ


Немного теории по акселерации моделирования в 3D Studio Max 24.03.2000 23:08
Существует несколько устойчивых мифов относительно 3D акселерации в 3D Studio Max, которые хотелось бы развеять. Первый вопрос касается старых карт Voodoo и Voodoo2. Покупка этих карт не ускорит 3D Studio ни на FPS. Это чисто игровые акселераторы, . К профессиональной деятельности они неприменимы. Пакет 3D Studio Max стоит несколько тысяч долларов. Для того, чтобы им пользоваться нужно не менее дорогое оборудование. Опытным путём доказано, что лучшим выбором становятся акселераторы от nVidia. При этом нужно чётко отдавать себе отчёт, что акселератор помогает лишь на стадии подготовки каркасных моделей и просмотре сцены в режиме Smooth & Highlights с наложенными текстурами. При финальном рендеринге участвует только центральный процессор, которому можно задавать различные точнейшие методы визуализации сцены. Основная польза от акселерации сказывается в сложных сценах, когда процессор тратил бы в софтверном режиме огромное количество времени на рассчёт геометрии, освещения и растеризацию обьектов в моделлере. Так же, при наличии акселератора пользователь, получает возможность фильтрации текстур.
Текстуры - один из критичных моментов при моделировании. В 3D Studio часто используются не примитивные текстуры 256x256 точек, как в большинстве современных игр, а монстроподобных размеров "портянки" с размерами гораздо большими. Для того, чтобы эффективно работать с подобными массивами данных, акселератору требуется огромное количество памяти. Не зря на профессиональных акселераторах минимальным обьёмом сегодня считается 64Мб. Если не отображать в сцене текстуры, можно обойтись и без больших обьёмов памяти. Но основное предназначение быстрого пререндеринга в моделлере - показать примерный вид сцены без долгих затрат на рендеринг.
Одним из ограничивающих мест становится и скорость Setup Engine. 3D Max рассчитывался на профессиональные платы, поэтому при работе через OpenGL используются многие профессиональные технологии. В частности аппаратный T&L был заложен в OpenGL очень давно. Бытует мнение, что 3DMax не имеет никакой пользы от T&L ядра GeForce. Для уточнения мы обратились к Нику Триантосу в nVidia, который возглавляет группу программистов, работающих над OpenGL. Ник подтвердил, что 3DMax использует T&L ядра GeForce и Quadro в режиме моделлера. "Да, 3DMax использует наш T&L, по крайней мере в OpenGL, а вот в Direct3D я точно сказать не могу", сказал Ник. Кроме того, нам удалось узнать, что, отключение T&L на уровне драйвера невозможно: "Нет, отключить нельзя, работа наших драйверов сильно зависит от использования T&L ядра". Прояснив ситуацию с T&L GeForce хочется обратить внимание на бенчмарки Savage2000, приведённые в обзоре, который мы делали не так давно. На графиках хорошо просматривается польза от слабенького T&L Savage2000. Заметим, что T&L это не чудо и не панацея от сверх сложных моделей. Результаты коственно подтверждают это - на простеньких моделях процессор сам справляется с моделями, поставляя их акселератору на скорости, сравнимой со скоростью T&L ядра. При небольшом усложнении модели наблюдается серьёзный прирост скорости - аппаратный T&L опережает софтверные алгоритмы трансформации и освещения. При усложнении геометрии аппаратный T&L уже не справляется с нагрузкой, оптимизация же работы софтверного HEIDI драйвера показывает себя с лучшей стороны. Учитывая, что GeForce 256 во многом аналогичен nVidia Quadro можно смело порекомендовать его начинающим 3DMax дизайнерам, как отличный акселератор. Тесты можете посмотреть в той же статье.


Q.У меня видеокарта Gigabyte GF-GV1280RT (64 Mb), на ней установлена память HYNIX. Что она из себя представляет? Почему программы твикинга карт определяют у всех GeForce 2 MX400 (64 Mb) память с частотой 335 MHz и типом DDR?
A.Hynix — новое название Hyundai, одного из лидеров рынка памяти. Память на этой видеокарте — набор 64 Мбит 16-разрядных микросхем SDRAM. А определение наличия DDR-памяти —  ошибка, связанная с тем, что на видеокартах MX200/400 часто устанавливают те же тактовые генераторы, что и на GeForce2 GTS/ Pro. 


Q.У меня после переустановки драйверов "детонатор" для видеокарты на чипе NVIDIA перестал работать диалог "Свойства дисплея" - можно ли это вылечить?
A.Скорее всего, вы устанавливали драйвера сначала русифицированные, а потом англоязычные, не удаляя старый драйвер. При этом в системных папках сохранились файлы разных версий, что и вызывает конфликт.
Вам нужно сначала удалить драйвер стандартными средствами Windows, затем в папке C:\Windows\System поискать оставшиеся от него файлы - для NVIDIA это библиотеки типа nvrs*.dll и nvcp*.dll (в свойствах таких файлов должна быть указана фирма-разработчик - NVIDIA).


Видеохирургия
А заниматься мы будем довольно специфичным занятием - редактировать и перепрошивать BIOS видеокарт - точнее, видеокарт компании NVIDIA.
Что это даст?
Первое и самое главное - излечение глюков видеокарты. Однако чаще всего этого не происходит.
Подавляющее большинство проблем с видеокартами возникает из- за их перегрева или из-за недостатка свободных ресурсов внутри системы. Скачав новую прошивку, обязательно посмотрите историю исправлений, сделанных внутри кода BIOS, - если вы нашли там свою проблему, и в новой версии она исправлена, - это тот редкий случай, когда от глюков можно избавиться так просто.
Чаще всего новые версии ограничивается исправлением ошибок типа "осложненная загрузка системы без соединения карты с монитором". Вы часто физически отключаете монитор от карты перед тем, как загрузить компьютер? Забавно, правда?
Еще один тезис: новые прошивки дают новые возможности - например, поддержку режимов SBA и FastWrites. Антитезис: в картах хороших производителей все нужные режимы уже работают и включены, а в... ммм... других картах включение дополнительных режимов просто невозможно из-за их архитектуры.
В любом случае, читайте историю дополнений и фиксов на каждую версию BIOS.
Подход номер два - попытка тонкой настройки видеоадаптера - прошивка BIOS от другой видеокарты или редактирование родной прошивки. Здесь все намного интереснее - прямо-таки поле для экспериментов. Во-первых, зная максимальные частоты работы памяти и чипа, можно сразу же прошить их в BIOS и тем самым избавить себя от установки и общения с разными программами- твикерами. Как следствие - чуть больше свободной оперативной памяти (если ваша программа-твикер сидела в ней постоянно) или свобода от возни с реестром (если все делалось ручками).В любом случае, плюсов от такой процедуры больше, чем минусов. Особенно это касается пользователей не-Windows-систем, так как для них софта для разгона видеокарт не так уж и много. Кстати, кроме обычных частотных значений, можно поэкспериментировать со значениями таймингов памяти, уменьшение которых, впрочем, может сказаться на производительности как в лучшую, так и в худшую сторону.
Кроме обыкновенного разгона, с помощью редактора BIOS можно русифицировать видеокарту, а из ноунейм-девайса сделать фирменную видяху. Зачем это может быть нужно? Во-первых, для понта. А во-вторых - для установки софта, который рассчитан на конкретную карту. Ну любят крутые производители делать такой софт, который работает только с их железом, - но почему бы не попробовать на свой страх и риск обмануть программу, поставив какую-нибудь специфическую программулину на свою безымянную железку?Тем более что от нас требуется только отредактировать в BIOS значения Sub Vendor ID/ Sub Vendor Model. Можно, конечно, сразу забить BIOS прошивкой от фирменной видеокарты, но вот ее работоспособность на вашем "ноунейме" гарантировать никто не сможет. Да и вообще - любое несоответствие железа и низкоуровневого софта под него к положительным результатам приводит редко.
------------
Прошивка
Как вы, наверное, успели заметить, прошивка видеокарты штука не менее, а где-то даже более интригующая, чем прошивка BIOS материнской платы. И если вы все-таки решились, то начинаем подготовку к самой процедуре. Первое - достаем BIOS для вашей видеокарты.
Внимательно смотрим на такие параметры, как ревизию самой печатной платы, объем памяти, маркировку чипа - в общем, собираем все данные о вашей видяхе. Внимательно изучаем прошивки, предлагаемые производителем, выбираем нужную. Инструменты - дискета, голова, память, набор софта для редактирования и прошивки.
Первое - сохраняем текущую прошивку. Для этого запускаем программу-прошивальщик для вашей видяхи (для карт NVIDIA, построенных на референс-дизайне, это, как правило, программа NVFlash определенной версии, работающая под управлением известного нам по старым играм дос-экстендера dos4gw.exe) и сохраняем на хард старый образ BIOS. Лучше всего сделать папку "1" или все программы, связанные с прошивкой, помещать прямо в корневой каталог - не исключено, что придется какое-то время работать в командной строке.
Делаем загрузочную дискету (а лучше две), на которую также скидываем прошивальщик и прошивки. Такая дискета делается на крайний случай - если все пойдет криво и нужно будет восстановить старый BIOS видеокарты (как вы уже догадались, если что-то пойдет криво - на мониторе вы вряд ли что-нибудь увидите). Для полной автоматизации процесса восстановления делаем файл autoexec.bat со строкой "nvflash.exe old.bin", где old.bin - имя файла-образа старого BIOS, а nvflash.exe - имя вашего прошивальщика видеокарты.
После того как вы убедились, что новая версия BIOS подходит для вашей видяхи по всем параметрам, начинаем издевательства. Для этого воспользуемся программой GF123x BIOS Edit, если у вас карта семейства GeForce, или программой TNT BIOS Edit (, если у вас, соответственно, карта на базе чипа TNT. Обе программы работают с библиотекой LabWindows/ CVI Run-Time Engine,.
Итак, для карт на базе GeForce берем программу GF123x BIOS Edit. Что можно изменить при помощи этой программы? Да практически все - надпись при загрузке, идентификаторы (производителя, модели и все такое), частоты чипа и памяти, тайминги. Надо лишь загрузить тот BIOS, который вы собираетесь прошивать, - и вперед!Никаких бешеных аргументов в командной строке, никаких недокументированных или совсем уж непонятных функций - все редактирование происходит чуть ли на интуитивно- майкрософтовском уровне. После редактуры сохраняем BIOS - вот и готова версия для прошивки. Отдельно в программе хочется отметить пункт Special, одна из опций которого позволяет изменить стандартные шрифты, зашитые в видеокарту, на свои собственные или на шрифты из набора Windows.
Например, можно запросто русифицировать свою видеокарту, загрузив набор шрифтов ega3.cpi и выбрав 866-ю кодировку. Одно нажатие на кнопку "BIOS Font" - и дело в шляпе. Особенно это полезно при жесткой экономии памяти - драйвер display.sys можно смело выкидывать из файла config.sys.
Пригодиться русификация может во многих случаях - при работе в командной строке с русскоязычным софтом при отсутствии русских шрифтов или, например, в режиме защиты от сбоев Safe Mode... После редактирования программа посчитает новую контрольную сумму файла-образа BIOS, и перепрошивальщик ничего не заподозрит.
Но перед тем, как приступить, собственно, к самой прошивке, необходимо проверить, как будет себя вести система с новым низкоуровневым кодом видеокарты. Делается сие просто - нам нужна всего лишь одна программулина, называемая VGABios. Этот продукт мысли, воплощенный в коде, являет собой динамически загружаемый драйвер, подгружающий BIOS с диска. Почему это возможно?
Дело в том, что при загрузке, если у вас включена опция кэширования "биоса" видеокарты, система целиком загружает его в определенную область оперативки и уже общается не с медленными флэш-чипом, до которого сигнал идет через все шины подряд, а напрямую с кодом, записанном в видеопамяти. Так вот, VGABios гнусно переписывает в эту область указанный вами BIOS.
Делается эта процедура до загрузки самих "виндов", то есть строчка запуска этой программы прописывается в autoexec.bat. Выглядит она примерно так: "c:\vgabios -fnewbios.bin -tM". Как вы уже догадались - "newbios.bin" - имя нового "биоса", который ожидает своей очереди во флэш-памяти. Ключик -t со значением M от 0 до 5 указывает программе режим TV.
Грузимся, досконально проверяем работу видеокарты, измеряем "фепеэсы", ловим старые баги. Переводим всю аппаратуру в номинальный режим работы (короче говоря - убираем разгон), грузимся в режиме MS-DOS или с системной дискеты, пишем в командной строке "nvflash.exe newbios.bin" и - ждем-с. Если прошивальщик отказывается работать, значит или что-то с контрольной суммой BIOS (как бороться с этим - смотрите выше), или сама программа предназначена для прошивки не этой серии карт, или на карте не установлена флэш-память.
Если все плохо и машина не грузится ни в какую - воткните дополнительно другую видеокарту с непрограммируемым BIOS и повторите процедуру прошивки. Конечно же, надо указать, видеоадаптер на какой шине следует инициализировать первым. В данном случае это будет адаптер на шине PCI. Может и это не помочь - тогда готовьтесь к растерзанию в гарантийной мастерской. Но там уже придется махать совсем другими инструментами...


Видеокарта Velocity 100
Velocity 100 - это видеокарта производства фирмы STB. Она несёт на борту чип от 3dfx (прикрытый игольчатым радиатором) и 8 мегабайт памяти SGRAM (5.5-6 нс.) работающей на синхронной частоте с чипом. Карта принадлежит линейке Voodoo3, в которую также входят: Velocity 200, Voodoo3 1000, Voodoo3 2000-3000. Velocity 100 является самой младшей из этой линейки. Она отличается от более мощных собратьев только частотами ядра/ памяти и меньшим объёмом памяти (у всех остальных на борту 16 Мб SGRAM, а у Velocity 100 только 8 Мб). Но на этом различия кончаются, а значит, карта обладает теоретически большим потенциалом к разгону. Ещё одно её отличие от всех остальных Voodoo3 - это отключенный второй текстурный конвейер. А если его отключили, то тогда и включить можно. Его можно включить с помощью изменения настроек реестра путём создания строки:
HKLM\ System\CurrentControlSet \Services\Class\ Display\0000\Glide "FX_GLIDE_NUM_TMU"="2" (Вместо значения 0000 может стоять 0001 и тд.)
Ещё одна особенность - это то, что драйверы от плат Voodoo3 2000-3000 ничем не отличаются от родных драйверов Velocity 100 и следовательно взаимозаменимы. Карточка аппаратно поддерживает следующие API: D3D, OpenGL, Glide. Есть поддержка таких технологий как Multi-Texturing, Bump-Mapping в драйверах даже есть поддержка Antialiasing-а.
Карта показала уникальные способности к разгону. С установленным вентилятором карта без труда разгонялась со стандартных 143/143 МГц (ядро/память) до 184/184 МГц. Артефакты не появились и после двух часовой игры в Unreal Tournament с шестнадцатью ботами и деталями на уровне Medium.
При такой частоте Velocity 100 даже на компьютере К6-2-400 может выдавать до 100 fps в UT.
На скриншоте справа посередине видна скорость кадров, где avg есть средне статистическая скорость кадров в секунду. Эта скорость достигнута в разрешении 640х480 при 16 битным цветом, все настройка качества на уровне Medium. Использовался API Glide. В OpenGL приложениях, таких как Quake 3 Arena карта показывает меньшую производительность. По данным теста Q3, Velocity 100 показала 45,7 fps.
В 2D карта показывает хорошую производительность, а эффекта замыливания нет даже при разрешении 1280х1024, что позволяет использовать её в офисе. одним очень важным фактором при покупке Velocity 100 является её цена - всего 35 у.е.

Q. Исходные данные: селерон 800 / CUSL2 / интегрированное видео / SB live 5.1 / монитор SONY G200. Хотелось бы видюху в районе 4000-4500 наших тугриков. Мнение моего приятеля, что лучше подкопить бабок и брать GF3 или ATI 8500. Потому что GF2 уже старье.
A. под Celeron 800 не имеет смысла брать GeForce3. В большинстве случаев видеокарточка будет просто простаивать. Конечно, если ожидается скорый глобальный upgrade, тогда поднакопить денег стоит.Если же в течение года апгрейд вам вряд ли грозит - смело берите GeForce2 Pro - например, от Creative, SUMA или Leadtek, потому что через год GeForce3 станет совершенно неактуальным, а на рынке будет господствовать какой-нибудь GeForce5.


Q.При определении производительности в 3DMark 2001 в тестах Game 4 — Nature, Environment Bump Mapping, Pixel Shader выдается сообщение "не поддерживается оборудованием". У меня карточка GeForce2 Pro (GV-GF2010D-64, драйверы вер. 5.13.01.2185, материнская пл. на VIA KM133 GA-7ZMM)?
A.Указанные выше тесты работают только на видеокартах GeForce3, GeForce4 Ti и ATI Radeon 8500. У них есть поддержка пиксельных шейдеров, а у GeForce2 нет. Поэтому тесты и не работают.


Q.У меня есть карточка Abit Siluro MX400. Память — Hyundai 5ns. By default стоит на 185 МГц. Разгоняю поставляемой с ней утилиткой до 210, ставлю флаг в "Apply at startup". После перезагрузки сначала винды грузятся, потом рабочий стол тухнет на пару сек, а потом снова появляется — это так каждый раз память выставляется на 210 МГц. Меня это слегка раздражает. Как можно сделать, чтоб моя карта с самого включения работала на нужной частоте, как на дефолте?
A.Так и должно быть при разгоне средствами драйвера. Наиболее радикальное средство разгона — перезапись "твикнутого" BIOS. Но это небезопасный способ. Можно попробовать разгонять другими утилитами — например, RivaTuner. Не исключено, что мигание исчезнет.


Prolink Microsystems на чипах линейки GeForce4 MX и на чипах GeForce4 Titanium. Pixel View GeForce4 Ti4400
Частота ядра - 275МГц. Видеопамять: объем - 128Мб, время доступа - 3.6нс, частота - 550МГц, пропускная способность памяти - 8.8Гб/сек., RAMDAC - 2х350МГц., карта оборудована TV-выходом. Видеовыходы - аналоговый и цифровой.
Pixel View GeForce4 Ti4600
Эта видеокарта обладает таким же набором видеовыходов, количеством памяти и RAMDAC, как и описанная ранее, но отличается от нее другими характеристики (это и понятно , GPU и модули памяти то другие...). Частота ядра - 300МГц. Видеопамять: время доступа - 2.8нс, частота - 650МГц, пропускная способность памяти - 10.4Гб/сек.


Q.Какое отличие между Turbo и Standard mode при установке AGP VxD Driver в VIA 4in1 SP?
A.Turbo — режим AGP 4x (или 2х, если не поддерживается), а Standard — это AGP 1x. Если проблем с видеокартой нет, нужно всегда выбирать Turbo.


Полное 3D-ускорение
В этой статье пойдёт речь о том, как получить высокий показатель fps, путём тонкой настойки вашего 3D акселератора. Ускорять можно почти любое устройство в компьютере, но акселераторы выделяются тем, что изменяемых параметров у них очень много. Можно ускорить игры только программными способами, с помощью свойств драйверов. Также можно ускорять 3D систему "железным" путём. Сначала рассмотрим первый путь, как самый простой и не требующий специальных знаний.
Включение и выключение эффектов
Этот способ может увеличить скорость fps в играх иногда вдвое. Способ связан с потерей качества картинки. Он напрямую зависит от вашей карты, так как у каждого поколения карт свои наборы эффектов.
Dithering - этот эффект можно применять в 16 битном цвете. Его использование нецелесообразно, так как картинка изменяется несильно. Он отнимет у вас 3-8 fps.
Trilinear Filtering - улучшает картинку. Мип переход становится менее заметен. На картах Riva TNT/TNT2 отсутствует. На самом деле при включении это пункта в драйверах включается аппроксимация. И картинка выглядит ещё хуже. Лучше всего реализован на картах 3dfx. Приводит к 3-10% потери скорости. На картах GeForce 256/GeForce 2/GeForce 3/GeForce 4 его включение не приводит к сколько ни будь серьёзной потери скорости, так как эти карты являются 3D процессорами (GPU), а не простыми акселераторами (к ним также относятся Radeon-ы ). При ощутимой потере скорости его следует отключить.
Fog (туман) - кому как нравится. не приводит к сколь-нибудь серьёзной потере скорости. Но это всё же туман и как любой туман он скрывает удалённые объекты.Иногда делает картинку реалистичнее.
Antialiasing (или FSAA) - эффект, сглаживающий "лесенки". На картах GeForce 256/GeForce 2 его включение приводит к 25-45% потере (в зависимости от уровня 2, 4, 8). На картах GeForce 3 включение антиалиасинга приводит к 15-30% потере в скорости. А на картах линейки GeForce 4 реализован "бесплатный" антиалиасинг. У этих карт при включении антиалиасинга потери в скорости составляют: у GeForce 4 Ti 3-10%, а у GeForce 4 MX 7-15% потерь скорости. Карты Radeon 8500/7500 можно приравнять к GeForce 3. Эффект делает картинку более мягкой и ровной. Его включение целесообразно только на GeForce 3/4.
Anisotropian Filtering - один из самых продвинутых эффектов. Этот метод фильтрации самый лучший. При включении картинка становится четкой. Горизонтально расположенные текстуры уходящие вдаль становятся четкими и детализированными. При использовании вместе с антиалиасингом картинка в современных играх становится фотореалистичной. Включение режима 2х на картах GeForce 256/2/3/4 приводит соответственно к 25%/20%/15%/ 3-6% (в среднем) потери скорости. Также существуют режимы 4х, 8х, 16х. У фирмы ATI свои обозначения, но в принципе это одно и тоже. Показатели карт Radeon 8500/7500 находятся на уровне GeForce 3 и GeForce 4 MX.
VSync - это не эффект, а синхронизация по вертикальной развёртке монитора. Приводит не столько к улучшениям, сколько к неудобствам. При включении картинка иногда подёргивается при поворотах. Призван убирать "лаг" (лаг - это когда вы едите в NFS и при попытке зайти в поворот машина не слушается руля, а через несколько секунд вы уже в стенке за поворотом) и разрывы по горизонтали при повороте в 3D пространстве. При включении заметное падение производительности. Потери зависят от развёртки.
Разрешение экрана
640х480 - В этом разрешении на скорость кадров сильно влияет процессор. Карты GeForce 256, GeForce 2, GeForce 3, GeForce 4 - в игре Quake III Arena показывают результаты отличающиеся друг от друга не более чем на 10%. Карты других производителей ведут себя также. Старые карты вроде Riva TNT2 и Voodoo 3 в этом разрешении показывают максимальную производительность.
800х600 - В этом разрешении ещё очень велико влияние процессора. Лесенки становятся мене заметными. В этом разрешении картинка выглядит неплохо на 14-15 дюймовых мониторах. Карты GeForce 256, GeForce 2, GeForce 3, GeForce 4 - изменяют свои результаты на 1-7% по сравненью с 640х480. Карты Riva TNT2 и Voodoo 3 теряют от 5 до 10%.
1024х768 - При установке этого разрешения процессор ограничивает производительность куда слабее. GeForce 256 теряет 10-20%, GeForce 2 от 7 до 15%, GeForce 3 5-10%, GeForce 4 3-7%. Карты типа Riva TNT/TNT2 и Voodoo 2/3 при установке этого разрешения заметно снижают показатель fps. Потери в среднем составляют от 15% до 35%. В этом разрешении на 14-15 дюймовых мониторах лесенки становятся слабо различимыми.
1280х1024 - В этом режиме процессор уже почти не даёт ограничений. GeForce 256 теряет в скорости по сравненью с 800х600 от 25% до 45%, GeForce 2 25% - 40%, GeForce 3 10% - 25%, GeForce 4 5% - 20%. Карты Riva TNT/TNT2 и Voodoo 2/3 теряют по сравненью с 800х600 от 50% до 80%.
Разгон
Разгонять можно не только саму 3D карту. Так же можно поднять скорость в играх подъёмом частоты системной памяти и шины.
Разогнать карту сейчас очень просто. У новых карт как все GeForce-ы и Radeon-ы утилита разгона встроена в драйверы. Так же существуют универсальные программы разгона, такие как Power Strip. В интернете лежат сотни программ под совершенно конкретные линейки карт. Для всех карт фирмы n'Vidia существует программа Riva Tuner, поддерживает все карты от Riva ZX до GeForce 4. Для карт серии Voodoo в интернете нет универсальной программы. Но программы Voodoo Tweaker есть право претендовать на универсальность. Она поддерживает карты Voodoo 1/2/3/4/5.


Спалить разгоном свою карту вы не сможете, как ни старайтесь! Это практически невозможно. Гоните до появления артефактов. Если артефакты появились, то вернитесь на 3-5 мегагерц назад и останьтесь на этом. Карты :
Voodoo 1 по умолчанию работают на частоте 50/50 (ядро/память) при установке радиаторов возможен разгон до 60/60. Без дополнительного охлаждения 55/55, реже 57/57.
Voodoo 2 по умолчанию 90/90 без охлаждения 105/105, реже 110/110.
Voodoo 3 2000/3000 гонится до 180/180. Если установить вентилятор, то иногда случается достичь 195/195.
Riva TNT гонится не так хорошо но бывают исключения.
TNT 2 обычно разрешает поднять частоту на 15-30 мегагерц.
GeForce 256 можно гнать до 20-50 МГц.
GeForce 2 МХ гонится не очень хорошо в среднем 15-25 МГц,
GeForce 2 PRO/Ultra можно разогнать на 20-35 МГц.
GeForce 3 разгоняется на 30-60 МГц, при этом память разгоняется куда хуже ядра.
GeForce 4 пока ещё не гнали, и поэтому информации нет. Но можно предположить, что гнаться будет хорошо, особенно средние модели.
Radeon-ы обычно гонятся довольно хорошо, но GeForce-ы лучше.Разгон памяти намного более эффективен, чем разгон ядра. Это особенно заметно на картах GeForce и Radeon.


Разогнать также можно и шину AGP. Если у вас процессор с частотой шины 66 МГц, то чтобы разогнать AGP, надо поднять частоту до 75 МГц, тогда частота AGP в режиме 2х поднимется с 133 до 150 МГц. Если можно поставить частоту 83 МГц, то скорость AGP станет 166 МГц, но при этом падает стабильность системы. При поднятии частоты шины разгоняется так же процессор. Если у вас процессор с частотой шины 100 или 133 МГц, то просто поднимите её до 112 и до 150 соответственно, что бы достичь эффекта изменения частоты с 66 до 75 МГц.


Riva TNT2(по возрастанию производительности): Vanta, M64, TNT2, TNT2 Pro, TNT2 Ultra. Чипы Vanta и M64 часто путают, считая, что это одно и то же. На самом деле, до какого-то момента чипы Vanta работали на более низкой частоте, чем М64.
От полноценного TNT2 эти чипы отличаются более узкой шиной памяти, имеющей разрядность всего 64 бит. TNT2, TNT2 Pro и одноименный чип с приставкой Ultra отличаются только частотами работы памяти и чипа.Сегодня покупать видеокарту на базе чипа TNT 2 даже для офисной машины нет смысла.


28 мая 2002 г            В очередной раз VIA готовится к выходу на графический рынок
VIA Technologies планирует в июне запустить в продажу свой первый графический чип Savage XP, основанный на ядре Zeotrope. Графические карты на новом чипе должны будут охватить низко- и среднеценовой рынок.
Несколько производителей графических карт уже сообщили о том, что планируют представить свои продукты, работающие на Savage XP, на выставке Computex, которая пройдет в Тайпее. Тем не менее VIA пока отказывается комментировать планируется ли представлять Savage XP как независимые графические чипы. Savage XP будет поддерживать стандарт DirectX 8, возможность работы с двумя дисплеями, 64 или 128 мегабитную DDR память и пропускную способность в 5.7 ГБ/сек. С точки зрения производительности рассматриваемый чип будет равнозначен nVidia GeForce4 MX420. По сведениям западных источников, предполагаемая стоимость чипа составит $15, что почти в два раза меньше, чем последний чип от SIS - Xabre400, чья производительность сравнима с GeForce4 MX460.
Несмотря на это некоторые производители видеокарт проявляют интерес к разработке продуктов на Savage XP, правда они говорят о том, что запланированное время выпуска может быть не очень благоприятно для VIA, поскольку к началу массового производства Savage XP рынок должны наполнить чипы Intel 845G. Но в тоже время производители возлагают большие надежды на high-end графический чип VIA Columbia, производительность которого теоретически равна производительности nVidia NV25.


AGP Digital Display от AOpen
Вчера, компания AOpen представила карту ADD (AGP Digital Display), позволяющую реализовать дополнительный цифровой видеовыход на материнских платах с поддержкой AGP-видеокарт.
Карта ADD дает возможность оснастить двумя цифровыми видеовыходами (DVO) материнские платы на основе чипсетов Intel 845G и Intel 845GL cо встроенным видеоконтроллером. Два DVO-выхода позволяют подключать как жидкокристаллические мониторы, так и мониторы на основе электронно-лучевой трубки, имеющие цифровой вход. Кроме того, карта ADD может работать в двухканальном режиме и поддерживать более высокое разрешение и частоту обновления при передаче сигнала от видеоконтроллера на дисплей, что позволяет сохранить качество сигнала, и соответственно, качество выводимого на монитор изображения.
Новая карта работает с графическим контроллером Intel и не может использоваться в качестве самостоятельного устройства. Карта также может применяться с дополнительным графическим ускорителем, установленным в слот AGP на материнской плате.
По заявлению разработчика, карта ADD поддерживает следующие материнские платы производства AOpen: AX4G Pro, AX4G-N, MX4G, MX4GR, AX4L-N, AX4L, AX4LR и MX4LR. К сожалению, устройство не может работать с любой ADD-несовместимой системой.


Для запуска подобных приложений с новой версией DirectX 9.0 Beta 1 необходимо выполнить некоторые изменения в реестре.
HKLM/SOFTWARE/Microsoft/DirectX/
Ключь "Version" измените на "4.08.01.0810" 


спецификации современных графических интерфейсов и различия между AGP и PCI.

Интерфейс Пропускная способность Частота
PCI 133MB/s 33MHz
AGP 2x 533MB/s 66MHz
AGP 4x 1GB/s 66MHz

единственный реальный плюс включения режима AGP 4x, а также примочки FastWrites - в том, что это дает вам реальную возможность набраться опыта в таком важном деле, как устранению глюков системы. Все остальные - например, увеличение производительности - скорее теоретические плюсы.
Кстати, даже сама ATI не рекомендует использовать режим AGP 4x в паре с чипсетами VIA и даже включила в свои драйверы фишку, отключающую режим AGP 4x при обнаружении чипсета VIA.


Q. Какие видеокарты с поддержкой шейдеров вы можете посоветовать, и какая их приблизительная цена?
A.Только GeForce3 Ti200.Можно ориентироваться на GeForce4 Ti4200, но это вдвое дороже.


Q. какие сейчас существуют видеокарты с TV-Out, наиболее подходящим для вывода на телевизор цифрового видео. Но при этом не хочется тратиться на ненужные мне расширенные 3D функции. Важны лишь 2D возможности и максимально качественный TV-out. В общем, все для просмотра видео. Если возможно, подскажите цену.
A.Насколько я знаю, хорошим качеством ТВ-выхода традиционно славились видеокарты ATI. Rage128 или Radeon VE/7000 подойдут. Они обойдутся не дороже $50.


Удивительно, но все карты поставлялись в варианте Retail.Все, кроме МХ’а, были снабжены видеовыходом, некоторые Radeon’ы имели цифровой выход, а ASUS обзавелся еще входом и 3D-очками. Вот мне пришлось с помощью PowerStrip’а среди трех Radeon 8500 искать различия в частоте. Как стало понятно мне в руки попали три вида 8500-ых: Pro, стандартный и LE. Только, как мне казалось, ATI заявляла частоту чипа для стандартных Radeon 8500 на уровне 275 МГц.Здесь же видим картину немного худшую. Хотя и так неплохо, если судить по производительности.
Среди Radeon’ов 7500 оказались две модели: Ultra и Low. Семитысячный Radeon мы взяли просто «для отвода глаз», дабы показать пользователю разницу в результатах (достаточно хотя бы сравнить с 7500LE). Ведь различие между Radeon 7500 и 8500 можно и не ощутить (качество картинки в обоих случаях отличное). И разницу в пятьдесят кадров после отметки в сорок кадров за секунду в 3D-играх уловить трудно То ли дело сравнивать 24 и 103 fps!
Изучив результаты тестирования, нельзя не заметить, что видеокарты от ATI равномерно занимают все уровни в разных сегментах удовлетворения потребностей геймеров. Большие скачки производительности заметны только при сравнении чипов из разных ценовых категорий.
В общем, если сравнивать выигрыш в быстродействии и сумму, которую за это надо переплатить, — то последняя вполне оправдана. Так, 7500-ые стоят до 150 у.е., а 8500 — около 200 у.е.
Уделю немного внимания комплектам поставки карточек. Со всеми видяхами от PowerColor шла бесплатная версия игры Rune, причем совершенно полная. Также для каждого видеовыхода (будь-то цифровой или композитный) имелся свой переходник: с цифрового — на обычный VGA, с композитного — на аналоговый S-видео. Спасибо PowerColor’у за заботу. Память на всех платах брэндовая — от Hynix на 8500-ом до Hyundai’а на 7000-ом.
Также хочу отметить, что, хотя GeForce 2 GTS и показал результат на уровне Radeon 7500, даже почти догнав 8500LE, не следует так сильно «зариться» на лишние кадры в старом Quake’е и обобщенные результаты в 3D Mark . Дело в том, что архитектура 2-ых GeForcе’ов несколько устарела и не поддерживает многие навороты, свойственные современным играм. К таким фичам можно отнести хотя бы Environment Bump Mapping и пиксельные шейдеры. Все тесты с подобными эффектами, используемые в 3D Mark, видеокартами на чипах от nVidia были пропущены (пиксельные шейдеры не поддерживаются и в Radeon 7500 ).Так что стрелка выбора на моих весах все больше перевешивается в сторону продуктов ATI.
Изображение в 2D выглядело идеально при любом видеорежиме и любой частоте (вот только с 7000-ым Radeon’ом в случае высоких разрешений возникали глюки с вертикальной частотой развертки). Частота вообще на всех видяхах устанавливалась не стандартная, может, для меня, кто, кроме nVidia и S3, в жизни ничего не видел. Итак, при разрешении 1024х768 вместо стандартных 85 Гц можно было выжать из монитора все 90.
Но раз уж попали ко мне видяхи с видеовыходами, так почему бы их не проверить. Для этого использовался телевизор Panasonic 21РМ30R. Он 21-дюймовый, и при выводе изображения при помощи продукта на чипе nVidia по краям картинки на его экране постоянно находилась черная рамка. Результат оставался прежним при изменении разрешения с 1024х768 на 800х600. Такая же рамка присутствовала и при капчуринге с видеовхода. Но этот глюк свойственен, повторюсь, всем продуктам nVidia и сетовать на плохую сборку конкретной видяхи не следует (к тому же в нашем случае использовался ASUS).
Если телевизор подключался к ATI’хам, подобных неприятностей замечено не было. И изображение замечательно растягивалось на весь экран и при 800х600, и при 1024х768!
Не знаю, как вы, но свой голос я буду отдавать только за ATI Radeon’ы. И пусть кто-то скажет, что в третьем GeForce’е уже реализовано все, что имеется в ATI’хах! Но ведь цена такого товара себя не оправдает (даже любой китайский GeForce 3 Ti 200, не самый быстрый из «третьих», стоит порядка 130 баксов)! К тому же PowerColor уже можно считать официальным ОЕМ-производителем видеокарт ATI, наравне с тем же Hercules’ом.
По поводу разгона могу сказать следующее: хоть видяхи и гнались в среднем на 10–15 МГц (особенно память) — где-то до заявленных ATI оригинальных частот — но вот толку от этого заметно не было никакого. Ведь прирост в 2 эфпээса на грани «горения» видяхи совсем не радует. Именно поэтому сии результаты приводить я не стал. Карточки и так шустрые.


Q. На видеокарте у меня присутствует AGP, а в DirectX оно недоступно.
A.Самый распространенный случай отсутствия поддержки AGP — неправильная установка драйверов. Первым делом после инсталляции системы необходимо установить драйвер для чипсета материнской платы:
Chipset Utility для Intel,
4-in-1 Pack для VIA,
Integrated Pack для ALi,
AGP driver для SIS.
Если этого не сделать, AGP-режим, скорее всего, будет недоступен, даже если плата полностью распознается Windows. Другая причина — неправильные настройки BIOS. Поставьте AGP Aperture Size в 64 или 128, включите AGP 1 WS, поменяйте другие настройки, связанные с AGP.


Установка в AGP 3.3 V видюшек сжигает мать на i845/i850, если на ней нет защиты (защита есть на ASUS P4B266 - там загорится красная лампочка).
для VIA старая видеокарта не страшна.


Q. Что такое шейдеры?
A.Грубо говоря, это программы обработки вершин (вершинные шейдеры) или комбинации текстур (пиксельные шейдеры), которые позволяют снять нагрузку с центрального процессора и улучшить качество изображения (в последнем случае). Вершинные шейдеры выполняются как предварительная подготовка трехмерной сцены, поэтому могут эмулироваться процессором. А пиксельные шейдеры — это более сложное, чем обычно, текстурирование, которое происходит на последних этапах обработки и потому должно поддерживаться графическим чипом. Если его нет, игра работать будет, но внешне будет смотреться совсем иначе.


WHQL (Windows Hardware Quality Labs) сертификацию получают драйвера, прошедшие процедуру тестирование корпорацией Microsoft. WHQL и официальные не-WHQL драйвера одной и той же версии отличаются друг от друга лишь отсутствием опций VSYNC и разгона в WHQL драйверах. О том, что драйвера имеют WHQL-сертификацию, вы можете узнать из программы DXDiag.


Q.Читая форумы, я наткнулся на фразы типа: “этот процессор не сможет полностью загрузить GPU”. Вопрос чем? Я думал, что процы уже давно перестали заниматься обсчетом графики.
2)Насколько я понял, асинхронная работа CPU и памяти не есть хорошо. Верно ли тоже самое для GPU и памяти видео карты?
A. 1. В игровых движках доля обсчета графики мала. Обсчитывается AI, физика, логика и т.д.. Этого процессору хватает за глаза, причем, иногда до такой степени, что как раз обсчет всго этого дела процессор выполняет гораздо медленнее, чем видеокарта выводит сцены. В таком случае говорят, что процессор не может загрузить видеокарту - она простаивает в то время, как процессор считает всё остальное.
2. Неверно. В графических чипах всё максимально конвейеризовано и все потоки данных кэшируются. Поэтому синхронность или несинхронность никакой особой роли здесь не играет.


Как исправить "проблему 60 герц" при помощи RivaTuner:
1) зайти в панель Low level display mode/refresh rating settings;
2) включить функцию "Enable Refresh overrider";
3) нажать на "плюс";
4) в диалоге нажать на кнопку "больше или равно" и выбрать минимальное разрешение;
5) в "Refresh override rule" выбрать "Max supported";
6) закрыть все окна и установить программу на загрузку при старте системы и работу в трее.
Теперь все разрешения, которые больше установленного минимума, то есть вообще все будут автоматически переключаться на нужную частоту вне зависимости от драйвера.


Q.Р3-600,RAM-192,видео-Voodoo-4,32Мб.При инсталляции игры Nolf2,выдает сообщение что необходим direct 8.1 и видео должна поддерживать какой то режим Tnl,хотя direct 8.1 установлен.
A. Игра требует, чтобы видeo поддерживала функцию Hardware Transforming and Lighting -  трансформацию и освещение должна обсчитывать видюха.И на процессор игра эти функции перелаживать не хочет. Как известно 3Dfx не захотела заделать HT L в свои чипы (критиковала NVidiа, из-за чего и канула в лету).Все чипы 3Dfx не держат T L, дрова не помогут, иди за GeForce(oм).После того как ты заинсталешь гамесу, тебе потребуется прога 3D Analyze. Запускаешь 3D Analyze, в разделе ЕХЕ жми Select и выбирай екзэшник с игрой, в разделе DLL Path делаешь то же самое, только на этот раз выбираешь како-нибудь dll-файл.Затем в опциях DirectX ствишь галочку напротив forse SW TnL, нажимаешь RUN.


BX440. Я подробно прочитал все статьи по BX и все прилежно выполнил:
- перепрошил BIOS (1012);
- заменил процессор на P III 800 и разогнал на 133 МГц. Я хочу попросить вашего совета по приобретению новой видеокарты. У меня Matrox G400 (AGP 2x), и работает она просто великолепно, но только в 2D-приложениях (Photoshop, Corel), но моя система процентов на 90 живет в 3D Studio VIZ. Поэтому и вопрос, что мне имеет смысл приобрести - Ti4200, Ti4600 или Radeon 9700 Pro (64 Мб или 128 Мб)?
Для такой системы нет явного смысла брать ни одну, ни вторую, ни третью карту. Вам вполне хватит возможностей и скорости GeForce3 Ti200, и брать что-то большее имеет смысл только в случае, если вы собираетесь произвести полный апгрейд системы в течение полугода. Если не собираетесь, то нет смысла гнаться за мощностью видяхи, ибо процессор все равно не даст вам воспользоваться ею полностью. 


ASUS V9280S:  медная пластина на задней стороне карты прижимается к чипам памяти гораздо слабее, чем хотелось бы, в результате чего между пластиной и памятью образуется зазор 0,5-1 мм, и даже не разогнанная карта довольно ощутимо греется.При попытке снять эту пластину обнаружил, что она приклеена на термоклей: 1) как снять медную пластину с задней стороны карты, не повредив при этом карту и память; 2) что лучше сделать после снятия пластины: приклеить ее получше, чем это сделали на заводе, на АлСил-5, или купить набор для охлаждения памяти от Thermaltake и приклеить два радиатора на память оттуда.
Смущает то, что в наборе от Thermaltake радиаторы алюминиевые, а стандартная пластина медная. Что будет эффективнее для охлаждения памяти?

отодрать пластину будет не проблематично, если перед этим вы хорошо прогреете карту (в игрушках или феном), а затем, упираясь чем-нибудь (например, деревянной лопаткой) не в память, а в плату и пластину, начнете ее отдирать.После того, как вы это сделаете, просто переклейте пластину на термоклей так, как вам бы хотелось, и не стоит связываться с наборами от Thermaltake - они весьма хороши, но зачем тратить лишние деньги?


В описании чипсета написано, что он поддерживает только AGP 3.0 (с поддержкой 4х- и 8х-видеоплат только с 1,5-вольтовым питанием).У меня же пока Riva TNT2 M64.В ее мануале написано, что она поддерживает AGP 1х, 2х и 4х. Насчет напряжения питания я ничего не нашел. Вопрос такой: могу ли я воткнуть свою "Риву" в такую мамку, и будет ли она работать?Не сгорит ли мать?

Жаль, что вы не указали, какая именно TNT2 M64 у вас - дело в том, что у очень многих производителей, несмотря на то, что в мануале и на коробке красуется AGP 4x, стабилизатор питания 1,5 В и поддержка AGP 4x реально отсутствуют.
Да, многие карты свободно работают в полутора вольтовых слотах, но многие (особенно это касается ранних ревизий видеокарт, независимо от производителя, - например, карты V3800 от самого ASUS тоже этим страдают) выжигают все подряд. Техподдержки производителей чаще всего высылают отписки типа: "Смотрите на версию карты, если она поддерживает AGP 4x, то нет проблем, если не поддерживает - даже и не думайте".
Рекомендую действовать так.Если контакты вашей карты Riva TNT2 M64 разделены лишь на две группы, то эта карта стопроцентно в слоте AGP 1,5 В работать не будет.Если же групп контактов три, то имеет смысл надеяться на лучшее.
Поставьте карту в менее крутую мать (наверняка есть у кого-то из друзей) с поддержкой AGP 4x. Запустите Riva Tuner и посмотрите, что он скажет о поддержке режима AGP 4x вашей картой. Если вердикт неутешительный, то пробовать вставлять карту в мать на KT400 не рекомендуется.


Че лучше взять:
Radeon 9000
Radeon 9100
Radeon 7500 DDR
GeForce4 MX440 или че иное. Денег в обрез.

В порядке убывания приоритета: 9100, 9000, 7500, MX440


  Asus 7700 и TV-OUT помогите насртоить TV-OUT (чип Хронотел 7007)Черные поля по краям Ставил TV-tool 6.5 но говорят сейчас у детонаторов есть встроенная поддержка тв-аута (одновременный вывод на монитор и телек) и настройка этих долбанных черных полей.

1-Dругу я посоветовал не мучиться и купить mpeg декодер с выходом на ТВ. Другой товарищ купил современный ТВ, который позволяет убрать эти поля. Сам давно плюнул. У меня старая ASUS 3400. Её драйвер содержал галочку для этих самых полей и позволял одновременный вывод. Но он не поддерживал захват NTSC. Сейчас уже запутался, какой комплект драйверов у меня стоит (и в каком порядке ставить). Одновременно всё не получается: что-то появляется, что-то пропадает.
2-Я лично ставил программу TV Tool и все было ОК.
3-Мне тут один чел посоветовал в реестре прописать разрешение у монитора что-то типа 720х480 или 720х5** вроде это телевизионное разрешение.


GeForce 4 MX440 64MB + Samsung 757NFWinXP и 2000Наблюдается время от времени появление мусорных вертикальных полос на изображении, которые исчезают, например при сворачивани и разворачивании назад окна.
Возникают, в частности, при вертикальной прокрутке, например, колесом мыши.

Очень похоже на переразгон/перегрев памяти (видео)! Попробуй с открытым корпусом поработать или кулер поставь!


Q. решил взять заместо своей GeForce 4 MX-440 новую, только вот не знаю какую GeForce 4 TI-4400 или Radeon 9000Pro .
A.Radeon 8500 or Radeon 9500 -- самое интересное на данный момент, и стоит подешевше чем GForce.


Q. Acorp 5ALI61 и мне хотелось бы узнать можно ли на нее поставить ATI Radeon 7500 (DDR или SDRAM), GeForce 2 Ti, Voodoo 5, или хотя бы GeForce 2 MX400 64mb?
A.1– поддерживает только AGP ( х2 х4 х8 не поддерживает) она просто AGP 66 мг у тебя даже Voodoo 3 работать НЕ БУДЕТ (AGPшный вариант PCIный будет только нужен ли он тебе)а ты по Voodo5 и т.д. Единственное что будет работать на твоей мамке (с приемлемой скоростью (для твоей мамки)) это Ванта
2– Материнок, на которых глючит радеон начиная с 7000 я не встречал нигде Даже на древнем noname i440LX - уверенно работает. geforce - 50/50 может даже 60/40 что не будет проблем а вот voodoo - не стоит.
3– я посоветовал бы тебе радеон(но только в том случае если у тебя мамка поддерживает AGP порт) из всех тобой перечисленных это наиболеее реальная, но только бери с DDR памятью.
4– На ней просто нерационально использовать РАДЕОН-7500, GeForce 2Ti - тоже, Вуду5000 - это сейчас просто выброс денег на ветер (проблемы с драйверами, 16-битный цвет в 3D графике, корявость работы с текстурами). Остается только МХ400. Ну, а если есть денежки на Радеон - то проще все же потратить часть их на замену матери и процессора. По моему опыту – АЛИшныe матери - редкой глючности!


Q.Помогите найти конвертер видео-файлов формата RealMedia - .rm, чтобы "перегнать" их во что-нибудь более универсальное и распространенное, хотя бы в тот же самый .avi.
A.Попробуйте воспользоваться программой RM Con-verter, она позволяет осуществлять конвертацию RM в AVI, DivX и MPEG-4, AVI в RM, MPEG-1 в RM . Кстати, у того же разработчика вы найдете не менее приятные и простые в использовании программы для корректного разрезания больших видеофайлов на несколько частей - AVI & MPEG Splitter и для обратной процедуры - создания единого файла из нескольких фрагментов - AVI / MPEG / RM / WMV Joiner. А в последнем случае поддерживаются не только AVI, но и MPEG-1, -2, -4, DivX, RM, DivX, RM, ASF и др.
9 октября 2003 г.  NVIDIA и ATi GPU роудмап

На страницах информационного ресурса VR-Zone появилась информация о будущем графических акселераторов от двух ведущих производителей NVIDIA и Ati. Глядя на этот роудмап, нельзя сказать, что какая-нибудь из компаний сможет существенно обогнать своего конкурента. Нас ждет честная и напряженная борьба. Смотрите данные в таблице:

 

IV квартал 2003

I квартал 2004

II квартал 2004

Вторая половина 2004

NVIDIA

NV38 (AGP8X)
NV36 (AGP8X)

NV40 (AGP8X)
NV36X (PCI Express x16)

NV41 (PCI Express x16)
NV42 (PCI Express x16)
NV43 (PCI Express x16)

NV45 (PCI Express x16)

ATi

R360 (AGP8X)
RV360 (AGP8X)

R420 (AGP8X)
R380 (PCI Express x16)
R370 (PCI Express x16)

R423 (PCI Express x16)

R450 (PCI Express x16)

DirectX Class

DX 9.0

DX9+(Shader 3.0)

DX9+(Shader 3.0)

DX9+(Shader 3.0)


seo & website usability   inet   html   os faq   hardware faq   memory   video   cpu   hdd   mainboard faq   printer & scaner   modem   mobiles   hackzone

На главную | Cookie policy | Sitemap