Black And White

Объявление

А ты поддержал форум?
Наш баннер Интеллектуально-ролевая онлайн игра Золотой Клон
Архив музыки (скачать mp3) Архив видео (скачать фильмы)

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » Black And White » Hardware [ Железо ] » Видео карты


Видео карты

Сообщений 1 страница 6 из 6

1

Официальные упоминания о чипсете NVIDIA nForce 570 LT SLI

Компания NVIDIA постоянно разбавляет ассортимент своих чипсетов новыми продуктами, и набор системной логики nForce 570 LT SLI, известный нам под кодовым обозначением MCP65P, не стал исключением. В перспективе этот чипсет должен заменить собой имеющийся nForce 570 SLI, заодно снизив стоимость материнских плат соответствующего класса. Считается также, что чипсет nForce 570 LT SLI должен стать конкурентом чипсета AMD 570X.

Так или иначе, на официальном сайте NVIDIA можно обнаружить таблицу с характеристиками чипсета nForce 570 LT SLI. Если сравнивать его функциональные возможности, то по сравнению с nForce 570 SLI пришлось пожертвовать немногим: вместо 28 линий PCI Express, разделяемых между шестью устройствами, появились 19 линий PCI Express, разделяемых между четырьмя устройствами. Это не мешает чипсету поддерживать SLI по формуле "PCI Express x8 + PCI Express x8".

Уменьшилось с шести до четырёх количество портов SATA-300. Вместо двух гигабитных сетевых портов теперь доступен только один. Исчезла поддержка технологий DualNet, Teaming и TCP/IP Acceleration. Функции для чипсетов NVIDIA достаточно уникальные, поэтому кто-то пожалеет об их отсутствии в перечне возможностей чипсета nForce 570 LT SLI.

2

В продаже появился специальный переходник DVI->HDMI для видеокарт AMD

Наши постоянные читатели уже в курсе, что видеокарты Radeon HD 2600 Pro и Radeon HD 2400 Pro не снабжаются переходниками с DVI на HDMI, позволяющими выводить сразу видео и звук. Некоторые партнёры AMD предлагают Radeon HD 2400 Pro и Radeon HD 2600 Pro со штатным портом HDMI, но цена таких решений выше, чем стоимость комплекта из обычной видеокарты и переходника с DVI на HDMI. Проблема заключается в том, что переходник от сторонних производителей не обеспечивает вывод звука через порт HDMI, а фирменные переходники от AMD в продаже до сих пор не попадались.

В том, что они рано или поздно появятся в магазинах, сомневаться не приходилось. Японские магазины на этой неделе отчитались о появлении в продаже фирменных переходников с DVI на HDMI, предназначенных для использования с видеокартами семейства Radeon HD 2xxx, и гарантирующих одновременную передачу видео и звука. Внешний вид такого переходника нам уже давно знаком:

http://www.overclockers.ru/images/news/2007/07/11/hdmi_01.jpg
Скорее всего, он будет без проблем выводить изображение и с порта DVI видеокарт NVIDIA, вся его исключительность кроется в поддержке передачи звука с порта DVI видеокарт AMD нового поколения.

Надо сказать, что японские магазины собираются неплохо наживаться на несчастных владельцах Radeon HD 2600 Pro и Radeon HD 2400 Pro: стоимость переходника достигает $12. Как нам удалось узнать, в российской рознице такие переходники тоже появятся, и вряд ли их цена будет сильно отличаться от стоимости обычных переходников DVI->HDMI, которые сейчас предлагаются по цене порядка $5-6.

3

Обзор новой графической архитектуры NVIDIA GeForce 8800

Немного истории
На протяжении всего 2006 года между гигантами графического рынка, компаниями ATI Technologies и NVIDIA, шла обычная война. В январе ATI анонсировала чрезвычайно удачный графический процессор R580, представлявший собой усовершенствованный R520. Несмотря на спорную на тот момент архитектурную концепцию, чип оказался очень успешным и вывел компанию в технологические лидеры. Ответ NVIDIA воспоследовал в марте – из "ангаров" выкатили наследник G70, графический процессор G71, позволивший восстановить паритет по производительности с конкурентом. Далее последовал еще один обмен ударами: в начале июня NVIDIA удалось укрепить свои позиции путем выпуска двухпроцессорной графической карты на базе G71, GeForce 7950 GX2, а несколько позже, в августе, ATI ответила на это анонсом Radeon X1950 XTX. Так или иначе, до сегодняшнего дня можно было говорить о примерном равенстве между ATI и NVIDIA – если Radeon X1950 XTX и уступал в производительности GeForce 7950 GX2, то выигрывал в качестве изображения и не имел проблем с совместимостью.

Как известно, в течение длительного периода NVIDIA, наращивая мощь своих графических процессоров, довольствовалась лишь эволюционными изменениями в их архитектуре. По сути, и G70, и G71 являются наследниками NV40, анонсированного более двух лет назад, 14 апреля 2004 года. Несмотря на значительно более высокую производительность, эти чипы наделены всеми основными чертами, свойственными их прародителю. Для своего времени NV40 был, несомненно, революционным решением, но, как показал пример ATI Technologies с ее линейкой Radeon X800/X850, до бесконечности совершенствовать старые технологии нельзя – рано или поздно наступает момент, когда резервы текущей архитектуры исчерпаны до дна, и из нее уже не удается выжать ни капли дополнительной производительности. Наглядным признаком такого исчерпания ресурсов в случае с NVIDIA стало ни что иное, как выпуск GeForce 7950 GX2, ведь для того, чтобы получить карту, превосходящую по производительности флагманское решение ATI Technologies, опирающееся уже на новую архитектуру, компании пришлось использовать два процессора G71.

Таким образом, необходимость в новой графической архитектуре назревала давно, и, разумеется, в стенах NVIDIA ковалось новое "чудо-оружие". Наконец, наступил день, который, по замыслу NVIDIA, должен стать переломным и вернуть компании корону технологического лидера. Пресловутым оружием, с помощью которого компания планирует нанести очередной удар по своему конкуренту, является новая, революционная в сравнении со своими предшественниками графическая архитектура GeForce 8, воплощенная в графическом процессоре GeForce 8800. Им и посвящен наш сегодняшний обзор.

DirectX 10
NVIDIA GeForce 8800 – первый в истории индустрии трехмерной графики чип, отвечающий требованиям стандарта DirectX 10, известного так же как WGF 2.0. В связи с выходом в свет первого DX10-совместимого GPU имеет смысл рассказать о возможностях и преимуществах DirectX 10.

Без преувеличения, DirectX является наиболее используемым и удобным API для создания игр на ПК и довольно быстрыми темпами захватывает мир игровых консолей – Microsoft Xbox имеют в своём составе гибридные Direct3D графические ускорители, Sony PlayStation 3 хоть и не использует Direct3D, несет на борту гибрид NVIDIA GeForce 6/7 и GeForce 8. Разумеется, что успех API от крупнейшего разработчика программного обеспечения не случаен: на протяжении десятка лет Microsoft фактически направляла прогресс аппаратной трёхмерной графики игрового класса, слушая как разработчиков аппаратного, так и программного обеспечения. После добавления поддержки очень длинных шейдеров и ряда других функций в DirectX 9 Shader Model 3.0, Microsoft дала возможность играм развиваться и далее, поставив самой себе новые задачи.

Основными целями, ставившимися перед Microsoft при разработке API следующего поколения – DirectX 10 – были:

Снизить зависимость от центрального процессора.
Предоставить разработчикам унифицированный набор инструкций для программирования пиксельных и вершинных шейдеров.
Увеличить функциональность пиксельных и вершинных шейдеров.
Предоставить разработчикам возможность создавать новые геометрические эффекты непосредственно в шейдере.
Дать возможность графическим процессорам управлять потоками данных внутри себя (stream-in/stream-out), увеличивая тем самым эффективность исполнения кода.
Увеличить эффективность работы с текстурами, максимальное разрешение текстур, поддержать новые форматы HDR и произвести другие эволюционные изменения.
По данным разработчиков графических чипов, с задачей Microsoft вполне справилась и новый API действительно получил огромное количество новых возможностей по сравнению с предшественниками.

Нововведения DirectX 10 заслуживают отдельной статьи с примерами, а потому далее мы сконцентрируемся на GPU GeForce 8800 и его текущих показателях.

Заря унифицированной архитектуры
За всю историю своего существования графические процессоры в том значении термина, которое мы все привыкли использовать, проделали немалый путь. Их эволюция началась с довольно простых устройств, вроде GeForce 256, обладавших довольно скромным набором фиксированных возможностей. Такие чипы еще нельзя было назвать графическими процессорами в полном смысле этого слова, так как они были неспособны к исполнению уникального программного кода. Первым по по-настоящему программируемым графическим чипом стал чип NVIDIA GeForce 3 (NV20), способный исполнять пиксельные и вершинные шейдеры стандарта DirectX 8.0.

В дальнейшем эволюция графических процессоров шла по пути наращивания возможностей их программирования, так что они могли исполнять все более сложные шейдерные программы. Со временем GPU превратились в практически универсальные вычислительные устройства, обладающие огромной вычислительной мощностью и за счет этого способные к визуализации самых замысловатых спецэффектов, какие только могла родить фантазия разработчика игр. С точки зрения производительности и универсальности они, с некоторыми оговорками, все больше напоминали обычные центральные процессоры: максимальная длина и сложность шейдерных программ росла с каждой новой версией DirectX, пока не стала практически неограниченной в Shader Model 3.0. Однако до некоторых пор всем GPU было присуще одно фундаментальное ограничение: деление исполнительных устройств для пиксельных и вершинных шейдеров Соответственно, любой графический процессор содержал в своем составе два отдельных набора блоков для обработки каждого вида шейдеров.

Такое разделение, хотя и имело ряд плюсов, негативно сказывалось на общей эффективности работы GPU, ведь в сценах, насыщенных пиксельными шейдерами, производительности имеющихся в наличии пиксельных процессоров могло не хватать, в то время как вычислительные мощности вершинных процессоров простаивали впустую, и наоборот. Следующий шаг в развитии GPU был очевиден – вышеописанную проблему дисбаланса могла решить только унификация шейдерных процессоров, при которой нагрузка между ними могла бы распределяться динамически, в зависимости от особенностей рассчитываемой в конкретный момент времени сцены. Новая разработка NVIDIA, графический процессор GeForce 8800 (G80), воплотил в себе эту концепцию в полной мере.

Надо сказать, что NVIDIA не является пионером в данной области – впервые графический чип с унифицированной архитектурой, известный под именем Xenos (кодовое название R500), был представлен компанией ATI Technologies в составе игровой консоли Microsoft Xbox 360. Он содержал 48 унифицированных шейдерных процессоров и в полной мере поддерживал возможности Shader Model 3.0 (а подчас и превосходил их). В определенном смысле его можно назвать предшественником героя сегодняшнего обзора.

GeForce 8800 в деталях: вычислительное ядро
Новая разработка NVIDIA, GeForce 8800 соответствует идеологии унификации в еще большей степени, нежели ATI Xenos. Сердцем нового чипа является универсальное вычислительное ядро, состоящее из 128 отдельных процессоров, причем это ядро работает на значительно более высокой частоте, нежели остальные блоки G80.

Потоковые процессоры сгруппированы по 16 штук в 8 блоков, каждый из которых оснащён четырьмя текстурными модулями и общим L1 кешем. Каждый блок представляет собой два шейдерных процессора (состоящего из 8 потоковых процессоров каждый), при этом все 8 блоков имеют доступ к любому из шести L2 кешей и к любому из шести массивов регистров общего назначения. Таким образом, обработанные одним шейдерным процессором данные могут быть использованы другим шейдерным процессором.

Стоит также отметить, что вышеописанная организация шейдерных процессоров, кешей и регистров общего назначения позволяет произвольно отключать шейдерные блоки и блоки из L2 кеша, регистров общего назначения и 64-битного контроллера памяти в случае производственных дефектов для получения "урезанных" решений, продающихся по более низкой цене.

За преобразование данных в формат FP32 отвечает блок, обозначенный на блок-схеме G80 как Input Assembler, а распределением ветвей кода и оптимизацией загрузки потоковых процессоров занимается блок Thread Processor.

Технология GigaThread является продвинутым аналогом технологии Ultra-Threading, использованной ATI в семействе Radeon X1000. GigaThread позволяет распределять шейдерные блоки на расчеты вершинных, геометрических и пиксельных шейдеров в соответствии с нагрузкой; при этом, если требуется и возможно, все типы шейдеров могут выполняться одновременно. Разумеется, процессор GigaThread также нацелен и на то, чтобы минимизировать простои шейдерных блоков процессора G80 во время выполнения чипом операций, связанных с выборкой текстур.

Каждый потоковый процессор способен одновременно выполнять набор попарно запускаемых скалярных операций типа MAD + MUL за такт (dual issue MAD+MUL instructions), а вычислительная мощность всего ядра составляет, по заявлениям NVIDIA, примерно 520 гигафлопс. Это более чем в два раза превышает показатели ATI R580, чья производительность, по словам ATI, составляет порядка 250 гигафлопс. Отсюда можно сделать интересный, хотя и небесспорный вывод. Как известно, каждый пиксельный процессор R580 содержит в своем составе 2 скалярных и 2 векторных ALU, а также блок управления исполнением ветви кода (branch execution unit), и, соответственно, способен исполнять до 4 инструкций за такт + 1 инструкция управления потоком. Следовательно, можно предположить, что эффективность одного поточного процессора (stream processor) G80 уступает эффективности одного пиксельного процессора R580, но в целом производительность G80 выше, за счет значительно большего числа вычислительных блоков (128 против 48) и более высокой частоты их работы. К сожалению, у нас нет подробных данных об устройстве отдельного потокового процессора G80. Мы знаем лишь, что он является полностью скалярным, в отличие от пиксельных процессоров архитектур предыдущего поколения, содержащих как скалярные, так и векторные ALU.

Любой из 128 потоковых процессоров G80 представляет собой обычное вычислительное устройство, способное работать с данными в формате с плавающей запятой. Следовательно, он не только способен обрабатывать шейдеры любого типа – вершинные, пиксельные или геометрические, но и использоваться для просчета физической модели или других расчетов, в рамках концепции Compute Unified Device Architecture (CUDA), причем, независимо от других процессоров. Иными словами, одна часть GeForce 8800 может заниматься какими-либо расчетами, а другая, к примеру, визуализацией их результатов, благо, поточная архитектура позволяет использовать результаты, полученные на выходе одного из процессоров в качестве источника данных для другого.

Эффективность работы с шейдерами, использующими динамическое ветвление, была улучшена в сравнении с ATI Radeon X1900: если последний способен оперировать "ветвями" размером 48 пикселей, то для GeForce 8800 эта величина составляет от 16 до 32 пикселей. В нашем арсенале тестовых средств есть способ проверить, насколько выросла эффективность исполнения ветвящихся пиксельных шейдеров, но об этом позже, в главе, содержащей результаты синтетических тестов.

GeForce 8800 в деталях: Lumenex Engine
Графический процессор G80 можно рассматривать как совокупность двух областей. Об одной из них, вычислительном ядре, было рассказано выше. Другой, не менее важной частью нового процессора является так называемый Lumenex Engine, ответственный за выборку и фильтрацию текстур, а также за полноэкранное сглаживание, поддержку HDR и вывод результата рендеринга на экран монитора. Иными словами, в данную область G80 входят текстурные кэши, интерфейс доступа к памяти, TMU и ROP.

На общей блок-схеме G80 видно, что 128 потоковых процессоров организованы в 8 групп по 16 процессоров в каждой. На каждую такую группу приходится 1 блок выборки и фильтрации текстур, состоящий из 4 TMU. Всего, таким образом, G80 содержит 32 TMU, каждый из которых устроен следующим образом:

Как видите, TMU содержит в своем составе 1 блок выборки и 2 блока фильтрации текстур. Скорость билинейной и анизотропной фильтрации 2х составляет по 32 пикселя за такт для каждого типа фильтрации, с такой же скоростью выполняется билинейная фильтрация текстур в формате FP16, а скорость анизотропной фильтрации FP16 2:1 составляет 16 пикселей за такт. Lumenex Engine в GeForce 8800 GTX работает на частоте 575 МГц, и, таким образом, теоретическая скорость заполнения сцены при одновременном использовании билинейной и анизотропной фильтрации 2х составляет 18.4 гигатексела в секунду.

Блоки растеризации, также являющиеся частью Lumenex Engine, сгруппированы в 6 разделов, каждый из которых может обрабатывать 4 пикселя (с 16 субпиксельными выборками) за такт, что в сумме дает 24 пикселя за такт при обработке значений цвета и Z. Если речь идет только о работе с Z-буфером, то число обрабатываемых значений увеличивается до 192 за такт в обычном режиме и до 48 за такт при использовании мультисэмплинга 4х.

Подсистема ROP поддерживает все виды сглаживания – мультисэмплинг, суперсэмплинг и сглаживание прозрачных поверхностей. В дополнение к стандартному набору режимов FSAA добавлены новые – 8x, 8xQ, 16x и 16xQ, о которых будет рассказано ниже. Сглаживание в форматах FP16 и FP32 поддерживается в полной мере, так что проблема, свойственная архитектурам GeForce 6 и GeForce 7, заключавшаяся в невозможности одновременного использования полноэкранного сглаживания и FP HDR, в GeForce 8 решена.

Подсистема доступа к памяти в GeForce 8800 обзавелась, по словам NVIDIA, новым контроллером, но в целом не претерпела значительных изменений по сравнению с семейством GeForce 7. Количество разделов выросло с 4 до 6, соответственно, общая ширина шины доступа к памяти возросла с 256 бит (4х64 бита) до 384 бит (6х64 бита). Была также добавлена поддержка GDDR4, хотя даже при использовании обычной памяти GDDR3 с частотой 900 (1800) МГц пропускная способность составляет 86.4 ГБ/сек. При таких параметрах нужды в высоких частотах, которые может предложить GDDR4, пока не наблюдается.

Новые режимы FSAA и анизотропной фильтрации
Создавая GeForce 8800, NVIDIA заботилась не только о производительности, но и о качестве изображения – свойстве, в котором предыдущие разработки компании зачастую уступали изделиям ATI Technologies. Изменения и улучшения коснулись как полноэкранного сглаживания, так и анизотропной фильтрации. Начнем с новых алгоритмов FSAA.

До появления GeForce 8800 наиболее качественным режимом полноэкранного сглаживания, поддерживаемым графическими решениями NVIDIA, был гибридный 8xS, сочетающий в себе свойства супер- и мультисэмплинга. Он обеспечивал великолепное сглаживание, но за использование суперсэмплинга приходилось расплачиваться чудовищным падением производительности, и режим практически всегда оказывался невостребованным, так как не позволял играть комфортно. Таким образом, максимальным пригодным к использованию на GeForce 7 режимом FSAA оставался стандартный мультисэмплинг 4x, в то время как ATI Radeon X1000 мог предложить пользователю мультисэмплинг 6х, менее качественный, нежели режим NVIDIA 8xS, но гораздо более пригодный к практическому применению.

Появление GeForce 8800 решило проблему отставания NVIDIA в области полноэкранного сглаживания применительно к одночиповым графическим картам. Во-первых, список доступных пользователю режимов сглаживания пополнился мультисэмплингом 8x, обозначенным в настройках драйверов ForceWare как 8xQ. Во-вторых, новый графический процессор получил поддержку трех новых режимов сглаживания – 8х, 16х и 16хQ, использующих так называемый метод Coverage Sampling Antialiasing (CSAA). О новом методе следует рассказать подробнее.

Использование мультисэмплинга 16x теоретически было возможно и ранее, но лишь появление CSAA позволило применять столь качественное сглаживание на практике, теряя в производительности приблизительно столько же, сколько и при использовании обычного мультисэмплинга 4х.

Главное отличие CSAA от привычного мультисэмплинга заключается в максимально возможном уменьшении количества смешиваемых сэмплов. Так, если в случае с MSAA (multi-sampling antialiasing) 16x количество сэмплов на каждый пиксел на экране будет равно 16, то в случае с CSAA их количество будет значительно меньше, что сокращает накладные расходы.

Так, следует обязательно отметить, что при использовании метода CSAA экономится только количество сэмплов цвета/Z, но не количество выборок на так называемой "сетке покрытия", так что процент попадания сэмплов в принадлежащий исходному пикселю треугольник значительно выше, нежели в случае классического MSAA 4х. Экономия на количестве выборок цвета оправдана, поскольку именно информация о цвете создает основную нагрузку на подсистему памяти, а деградация качества сглаживания в случае использования 4 выборок значений цвета/Z на пиксель при 16 coverage samples будет заметна лишь в отдельных случаях. Чаще всего в тех, когда контраст между очень небольшим сглаживаемым полигоном и фоном высок, так как 4 сэмплов может оказаться недостаточно для аккуратного усреднения цвета финального пиксела и качество сглаживания окажется близким к MSAA 4x.

Всего GeForce 8800 поддерживает 3 режима CSAA – 8x, 16x и 16хQ. Первые два режима оперируют 8 и 16 сэмплами покрытия, соответственно, при 4 сэмплах цвета/Z, а режим 16xQ является высококачественным и при выборке значения цвета/глубины использует 8 сэмплов. Таким образом, по качеству он наиболее приближен к классическому MSAA 16x.

Новый подход NVIDIA уменьшает расход памяти и экономит её пропускную способность, а, следовательно, позволяет получить более высокий уровень производительности, нежели при использовании полномасштабного мультисэмплинга 16х. Качество сглаживания при этом получается близким к последнему и значительно выше, чем обеспечивает пресловутый режим SLI AA 16x, известный своим эффектом "смазывания" текстур. По словам NVIDIA, производительность в режиме CSAA 16x лишь на 10%-20% ниже, чем в режиме MSAA 4x. Насколько это заявление соответствует реальному положению вещей, мы выясним позднее.

Что касается анизотропной фильтрации, то в GeForce 8800 был реализован алгоритм, в котором качество фильтрации не зависит от угла наклона плоскости текстуры. Он аналогичен алгоритму, используемому графическими картами ATI при включении опции High Quality AF, но, по словам NVIDIA, обеспечивает несколько более высокое качество фильтрации. Мы также собираемся проверить это утверждение в дальнейшем.

GeForce 8800: технические характеристики семейства
С учетом всех архитектурных нововведений, нет ничего удивительного в том, что новый графический процессор NVIDIA получился очень сложным – 681 миллион транзисторов, и это с учетом вынесенных в отдельный чип TMDS-трансмиттеров и RAMDAC! Для сравнения, количество транзисторов в современных настольных CPU составляет от 154 миллионов (AMD Athlon 64 X2) до 582 миллионов (Intel Core 2 Quad – Kentsfield), причем, большая их часть, в отличие от G80, приходится на кэш второго уровня. Рисковать при создании столь сложного чипа NVIDIA не стала и, в результате, для его производства был выбран хорошо проверенный временем 0.09-мкм техпроцесс TSMC. Несмотря на это, компании удалось достичь неплохого показателя по тактовым частотам и добиться устойчивой работы ядра G80 на частоте 575 МГц, а шейдерных процессоров – на частоте 1350 МГц.

На момент анонса в состав семейства GeForce 8800 вошли две графические карты – флагманская GeForce 8800 GTX стоимостью $599 и менее производительная, но более дешевая GeForce 8800 GTS, чья рекомендуемая цена установлена на уровне $449. Таким образом, даже старшая модель новой линейки заметно дешевле GeForce 7950 GX2, цена на которую в момент анонса была установлена на уровне $649. В связи с этим следует ожидать снижения цен на старшие модели GeForce 7 до уровня $300-$449.

Что касается доступности новых графических карт NVIDIA, то, по обещаниям разработчика, они должны были бы быть у ведущих поставщиков с момента анонса. Тем не менее, за два дня до формального запуска новой серии графических адаптеров NVIDIA решила отозвать графические платы GeForce 8800 GTX из-за якобы обнаруженной в них ошибки при производстве контрактным производителем. Согласно заявлениям компании, часть карт модели 8800 GTX несет на себе неправильный резистор, что, согласно неофициальной информации, приводит к визуальным артефактам в трехмерных приложениях. Мы можем подтвердить, что наша графическая карта GeForce 8800 GTX ранней ревизии вышла из строя после некоторого времени использования, однако, артефактов в 3D играх мы не видели, а основной проблемой стало, по всей видимости, отсутствие переключения между 2D и 3D режимами работы. Проблемы с одним единственным резистором вполне могут решаться "на местах" путём их перепайки по инструкции от разработчика. Однако компания NVIDIA решила отозвать, по крайней мере, часть карт 8800 GTX из каналов продаж, но не переносить срок запуска решений, доступность которых в момент формального начала продаж будет ниже предполагаемой. К счастью, проблем с GeForce 8800 GTS – удешевленной версии 8800 GTX – не обнаружена и возможность её приобрести в момент анонса, согласно заверениям NVIDIA, будет у всех желающих.

Однако вернемся к техническим характеристикам семейства GeForce 8800. Для удобства читателей мы свели характеристики наиболее производительных однопроцессорных графических карт в единую сравнительную таблицу:

Очевидно, что даже младшая модель, GeForce 8800 GTS, практически по всем параметрам превосходит как GeForce 7900 GTX, так и Radeon X1950 XTX. Стоит, однако, отметить, что флагман линейки ATI Radeon X1950 обладает столь же высокой пропускной способностью подсистемы памяти: в одном случае мы видим использование 320-битной шины памяти и дорогой разводки, в другом – применение недешевой GDDR4 и более простой разводки печатной платы для 256-битной шины памяти.

Относительно GeForce 8800 GTX можно лишь сказать, что этот графический адаптер не имеет себе равных, если рассматривать технические характеристики. Насколько успешно он дебютировал, покажут результаты игровых тестов, а мы пока познакомим наших читателей с конструкцией нового продукта, созданного NVIDIA.

GeForce 8800 GTX: дизайн печатной платы
Само собой разумеется, что воплощение столь сложной конструкции, как GeForce 8800 GTX, потребовало разработки новой, уникальной печатной платы. Такие факторы, как высокий уровень энергопотребления G80, применение отдельного чипа, содержащего TMDS-трансмиттеры и RAMDAC, а также использование 384-битной шины памяти привели к тому, что карта получалась очень габаритной:

Чтобы получить представление о том, насколько огромен новый видеоадаптер NVIDIA, взгляните на следующий снимок:

Как видите, по длине плата GeForce 8800 GTX значительно превосходит Radeon X1900 XTX – 27.9 против 23 сантиметров, и, видимо по этой причине, разъемы питания были перенесены с задней стороны PCB на верхнюю, дабы избежать проблем с подключением в недостаточно длинных корпусах. Так как большую часть платы с расположенными на ней элементами закрывает массивная система охлаждения, для того, чтобы получить доступ к техническим секретам GeForce 8800 GTX, нам пришлось ее демонтировать, для чего потребовалось открутить 11 больших подпружиненных и 8 малых болтов. Лишь после этого новинка предстала перед нами в "обнаженном" виде:

Большую часть – более трети всей платы – занимает мощная система питания, способная прокормить чип, состоящий из 681 миллиона транзисторов и по уровню энергопотребления конкурирующий с современными CPU верхней ценовой категории. Вопрос питания мощных графических карт всегда рассматривался NVIDIA тщательно; не стала исключением и GeForce 8800 GTX. Для ее использования система должна быть оснащена блоком питания мощностью не менее 450 Ватт, способным обеспечивать суммарный ток не менее 30А по напряжению 12В, то есть, каждая из его виртуальных линий 12В должна выдерживать нагрузку, как минимум, 15А без срабатывания защиты. К карте необходимо подключать оба разъема питания PCI Express, в противном случае, она, в зависимости от подключенного разъема, либо не запустится, издав громкий предупредительный сигнал, либо запустится в режиме пониженных частот.

В правом нижнем углу можно видеть стандартный пьезодинамик, отвечающий за подачу вышеупомянутого сигнала, а также четырехконтактный разъем для подключения вентилятора системы охлаждения. Несколько выше видно место для установки шестиконтактного разъема, имеющего, по всей видимости, технологическое назначение.

Сердцем схемы питания является многофазный ШИМ-контроллер Primarion PX3540, расположенный с обратной стороны PCB.

Остальная часть платы, на которой расположены GPU и память, выглядит на удивление просто и не содержит никаких интересных деталей, кроме небольшой микросхемы в упаковке FCBGA с открытым кристаллом, маркированным, как NVIO-1, ревизии A3.

Так как NVIDIA решила не интегрировать в состав и без того сложнейшего графического процессора G80 TMDS-трансмиттеры и RAMDAC, эти традиционно интегрированные компоненты были вынесены в отдельный специализированный чип.

Такой шаг не только избавил RAMDAC от возможных помех, создаваемых шейдерными процессорами, работающими на частоте 1.35 ГГц, но также позволил повысить эффективность производства нового GPU, хотя и несколько усложнил разводку печатной платы. Помимо всего прочего, внешний чип NVIO может служить и для каких-либо других целей, кроме вывода изображения. В некотором роде, использование NVIO это возврат к корням, ведь некогда все графические карты использовали внешний RAMDAC.

История любит повторяться: в последний раз упаковка графического процессора с металлической крышкой-теплораспределителем применялась NVIDIA в NV35; впоследствии, с выпуском NV40, компания от нее отказалась, ограничившись защитной металлической рамкой вокруг ядра. Высокий уровень энергопотребления, неоднородность тепловыделения разными частями нового графического чипа, работающими на существенно различающихся тактовых частотах, вынудил NVIDIA вернуться к идее теплораспределителя, и, в результате, G80 стал внешне напоминать современные процессоры Intel и AMD.

Использование дизайна с крышкой позволило организовать гарантированное рассеивание тепла по всей площади чипа, надежный отвод тепла, а также значительно снизить риск повреждения хрупкого кристалла. Так как система охлаждения GeForce 8800 довольно массивна, во избежание излишней нагрузки на чип, могущей его повредить, а также для обеспечения более равномерной нагрузки на PCB, вокруг GPU установлена металлическая окантовка, крепящаяся непосредственно к печатной плате посредством 8 малых болтов.

Маркировка процессора не содержит ни его кодового имени, ни официального названия. Все, что мы видим, это обновленный логотип NVIDIA. Из маркировки также можно узнать дату изготовления и ревизию чипа – в нашем случае это 37 неделя текущего года, приходящаяся на период между 11 и 17 сентября. На этот момент NVIDIA уже располагала полностью работоспособными экземплярами G80 ревизии A2, то есть, третьей по счету.

Тактовая частота графического ядра GeForce 8800 GTX составляет 575 МГц, что уже является отличным достижением для кристалла, произведенного с использованием 0.09-мкм техпроцесса и состоящего из 681 миллиона транзисторов. Но, как мы уже знаем, и это не предел: шейдерные процессоры в старшем варианте GeForce 8800 функционируют на частоте 1350 МГц. С этой точки зрения архитектура G80 напоминает архитектуру Intel NetBurst, где частота работы ALU в два раза превышает базовую.

Привычное расположение микросхем памяти полукругом, при котором часть чипов установлена под углом 45 градусов, было изменено на более простое: 12 чипов GDDR3 расположены вокруг GPU тремя ровными рядами – двумя вертикальными и одним горизонтальным. Поскольку каждый чип имеет организацию 16Mx32, общая ширина шины доступа к памяти составляет 384 бита. В случае с менее производительной моделью, GeForce 8800 GTS, из 12 микросхем на плату устанавливается только 10, что ограничивает ширину шины до 320 бит.

Чипы K4J52324QE-BJ1A произведены Samsung и представляют собой RoHS-версию широко распространенных чипов серии K4J52324QC. Их описание пока отсутствует на сайте компании-производителя, но, судя по всему, перед нами все те же микросхемы с напряжением питания 2.0В, способные работать на частотах вплоть до 900 (1800) МГц. На этой частоте память GeForce 8800 GTX и работает. Использование 384-битной шины доступа позволило NVIDIA избежать необходимости применения более редкой и дорогой памяти GDDR4, и, вместе с тем, обеспечить внушительную пропускную способность на уровне 86.4 ГБ/сек.

В верхнем левом углу PCB расположены две "гребенки" интерфейса MIO. Вариантов здесь несколько: либо подразумевается двунаправленная передача данных, либо увеличение пропускной способности MIO за счет одновременного использования обеих интерфейсов, встроенных в GPU, либо в дальнейшем планируется работа четырех отдельных карт GeForce 8800 GTX в составе комплекса Quad SLI.

Несмотря на то, что такого монстра в составе домашнего ПК трудно себе представить – 8 разъемов питания, потребляемая мощность свыше 500 Ватт – данный вариант кажется нам наиболее правдоподобным. Этому есть простое и довольно логичное доказательство: младший представитель новой линейки, GeForce 8800 GTS, оснащен лишь одним разъемом MIO, и вряд ли NVIDIA пошла бы на уменьшение эффективности тандема SLI, состоящего из двух таких плат просто так, ради мизерной экономии. Quad SLI – совсем другое дело. Эта платформа изначально является экстремальной и нацелена исключительно на узкую группу пользователей, желающих получить максимально возможную производительность, не считаясь со сколь угодно высокой ценой. Следовательно, в своем стремлении к скорости такие пользователи будут приобретать именно GeForce 8800 GTX, а не более дешевый GeForce 8800 GTS, которому, таким образом, возможность работы в составе Quad SLI становится попросту ненужной.

Что касается конфигурации внешних разъемов, то она стандартна – два порта DVI-I, разумеется, с поддержкой dual-link и HDCP, и универсальный семиконтактный порт S-Video/YPbPr. Функциональности VIVO карта лишена, но в наши дни эта возможность уже неактуальна.

GeForce 8800 GTX: конструкция системы охлаждения
Теперь давайте рассмотрим систему охлаждения GeForce 8800 GTX. Предельно ясно, что она должна быть способной рассеивать такое же количество тепла, что и самые современные процессорные кулеры, но при этом оставаться достаточно компактной: в отличие от процессорного, графическому кулеру расти практически некуда, он ограничен габаритами видеоадаптера. Как же NVIDIA вышла из положения?

Сегодня очевидно, что система охлаждения современного графического адаптера должна обеспечивать отвод горячего воздуха за пределы корпуса системы – ведь лишние 120-150 Ватт тепла, рассеиваемые внутри корпуса, отнюдь не способствуют улучшению и без того напряженной тепловой обстановки, особенно, если система укомплектована мощным CPU. И если системы охлаждения, разработанные ATI Technologies, используют этот принцип еще со времен Radeon X850, то NVIDIA до сегодняшнего дня следовала ему лишь частично (если не считать печально известной системы охлаждения GeForce FX 5800 Ultra). Как известно нашим читателям, кулер GeForce 7900 GTX отводит за пределы корпуса лишь часть нагретого воздуха, а кулер GeForce 7950 GX2 не делает и этого в силу двухплатной конструкции самой карты. Разрабатывая новую систему охлаждения для семейства GeForce 8800, NVIDIA постаралась учесть старые недостатки и избавиться от них. Вот, что получилось в результате:

Больше всего новый кулер напоминает конструкцию, которая устанавливалась некогда на GeForce 6800 Ultra, но увеличенную в размерах и развернутую на 180 градусов таким образом, чтобы горячий воздух выбрасывался наружу через прорези в крепежной планке видеоадаптера, а не внутрь корпуса системы. Разумеется, здесь применена более сложная конструкция, по сравнению с GeForce 6800 Ultra, так как G80 выделяет значительно больше тепла, нежели NV40. К немалому нашему удивлению, NVIDIA решила не использовать медный радиатор, как это сделала ATI Technologies. Сквозь прорези в кожухе видно, что радиатор, как и прежде, набран из тонких алюминиевых пластин. Демонтировав кожух кулера, мы увидели следующую картину:

Как видите, здесь применена та же компоновка, что и в системе охлаждения ATI Radeon X1950 XTX: тепловой поток, генерируемый GPU, отбирается массивным медным основанием и при помощи тепловой трубки равномерно распределяется по радиатору, что значительно улучшает эффективность теплоотвода.

Основание, радиатор и вентилятор установлены на легкой алюминиевой раме, имеющей выступы в местах контакта с чипами памяти, кристаллом чипа, содержащего TMDS-трансмиттеры и RAMDAC, а также корпусами сильно нагревающихся ключевых МОП-транзисторов системы питания. Во всех случаях в качестве теплопроводящих прокладок используются традиционные для графических карт NVIDIA подушечки из неорганического волокна, пропитанные белой термопастой. В месте контакта медной подошвы с крышкой GPU нанесен слой темно-серой густой термопасты, также хорошо знакомой нашим читателям по многочисленным обзорам мощных видеоадаптеров. Рама имеет прямоугольные прорези в районе вентилятора, что позволяет несколько улучшить охлаждение силовых элементов и PCB путем забора воздуха через эти прорези.

За продувку радиатора отвечает радиальный вентилятор, так называемый "бловер", обладающий двумя преимуществами – во-первых, создаваемый им воздушный поток изначально направлен перпендикулярно оси вращения крыльчатки, а во-вторых, статическое давление потока выше, нежели развиваемое классическим осевым вентилятором той же мощности. При данной компоновке системы охлаждения радиальный вентилятор является оптимальным выбором, позволяющим осуществлять эффективный продув длинного радиатора с малым шагом ребра, имеющего высокое аэродинамическое сопротивление.

Потребляемый ток примененного конструкторами NVIDIA вентилятора составляет 0.48А при напряжении питания 12В, что дает мощность порядка 5.8 Ватт. Скорее всего, при работе вентилятора на максимальных оборотах уровень шума, создаваемый крыльчаткой, был бы невыносимым, но будем надеяться, что система управления оборотами вентилятора, установленная на GeForce 8800 GTX, покажет себя с лучшей стороны.

В целом, система охлаждения NVIDIA GeForce 8800 GTX представляет собой логичную, законченную конструкцию, рассчитанную на охлаждение даже столь мощного чипа, как G80. Несколько настораживает лишь использование в конструкции главного радиатора алюминия вместо меди, что может обернуться на практике необходимостью работы вентилятора на повышенных оборотах, а, следовательно, и повышенным уровнем шума. Мы проверим это предположение в следующей главе нашего обзора.

GeForce 8800 GTX: шумность и уровень энергопотребления
Для оценки уровня шума, генерируемого системой охлаждения NVIDIA GeForce 8800 GTX, был использован цифровой шумомер Velleman DVM1326 с разрешающей способностью 0.1 дБ. Измерения производились с использованием взвешенной кривой А. На момент проведения замеров, фоновый уровень шума в лаборатории составил 36 дБА, а уровень шума на расстоянии одного метра от работающего стенда, оснащенного графической картой с пассивным охлаждением, был равен 40 дБА. В результате проведенных измерений были получены следующие данные:


Несмотря на наши опасения, уровень шума, создаваемый новым кулером NVIDIA, оказался весьма невысоким. По этому параметру GeForce 8800 GTX сопоставима с GeForce 7900 GTX, которая является одной из самых тихих графических карт. Новинка работает практически бесшумно во всех режимах, а система управления оборотами вентилятора напоминает о своем существовании лишь первые несколько секунд после включения системы. С учетом того, что система охлаждения GeForce 8800 GTX должна эффективно рассеивать свыше 130 Ватт тепла, это великолепный результат. Остается только поаплодировать инженерам NVIDIA, которым удалось повторить отличные шумовые характеристики кулера GeForce 7900 GTX в рамках гораздо более жесткого теплового пакета GeForce 8800 GTX.

К сожалению, нам не удалось провести замеры уровня энергопотребления GeForce 8800 GTX. Специально оборудованный для этой цели тестовый стенд на базе модифицированной системной платы Intel Desktop Board D925XCV оказался несовместимым с новой графической картой NVIDIA. Система включалась, успешно проходила инициализацию и начинала загружаться, но карта не выдавала видеосигнала на монитор. Таким образом, в вопросе энергопотребления GeForce 8800 GTX нам придется опираться на цифры, приведенные NVIDIA.

Если верить официальным данным, то ничего экстраординарного в области энергопотребления GeForce 8800 GTX не демонстрирует. 145.5 Ватт в режиме максимальной нагрузки – показатель, которого вполне можно было ожидать от чипа, использующего 0.09-мкм техпроцесс и состоящего из 681 миллиона транзисторов, значительная часть из которых работает на частоте 1.35 ГГц. Оснований для беспокойства нет: как мы уже выяснили, система охлаждения, примененная NVIDIA, вполне справляется с такой нагрузкой, демонстрируя при этом более чем приемлемые шумовые характеристики.

GeForce 8800 GTX: разгон
С самого начала известные нам характеристики GeForce 8800 GTX, такие как сложность PCB, техпроцесс, тактовые частоты G80 и количество составляющих его транзисторов, не внушали надежды на сколько-нибудь заметный разгон. По предварительным прикидкам выходило, что разгонный потенциал у столь сложного графического адаптера должен быть близок к нулю.

Однако, как это нередко бывает, реальность опровергла теоретические построения, и нам удалось поднять основную частоту графического ядра с 575 до 625 МГц, при которой карта работала вполне устойчиво длительное время. Увы, мы точно не знаем, выросла ли при этом частота шейдерных процессоров и, если выросла, то насколько. В случае пропорционального увеличения тактовой частоты потоковыми процессорами, их скорость должна была бы составить 1467МГц при разгоне на величину чуть более 8%, и не факт, что такое увеличение частоты не влияет существенно на тепловые характеристики графического чипа. Впрочем, также не исключено, что тактовая частота потоковых процессоров является жестко зафиксированным на отметке 1350 МГц параметром, не поддающимся изменению.

Частоту памяти удалось поднять на ту же величину, 50 МГц, разогнав ее с 900 (1800) до 950 (1900) МГц. С учетом 384-битной шины доступа, усложнившей разводку PCB и того факта, что номинальная для этих чипов частота была превышена, даже такой результат является неплохим. Так или иначе, GeForce 8800 GTX поддается разгону даже без применения экстремальных средств, таких, как модификация схемы питания и без замены штатной системы охлаждения на более мощную водяную или даже криогенную.

Теперь, наконец, пора перейти к результатам тестов новой графической архитектуры.

Конфигурация тестовой платформы и методы тестирования
Сравнительное исследование производительности GeForce 8800 GTX проводилось на платформах, имевших следующую конфигурацию.

Процессор: AMD Athlon 64 FX-60 (2 x 2.60ГГц, 2 x 1МБ L2)
Системная плата:
Abit AN8 32X (nForce4 SLI X16) для карт NVIDIA GeForce
Asus A8R32-MVP Deluxe (ATI CrossFire Xpress 3200) для карт ATI Radeon
Память: OCZ PC-3200 Platinum EL DDR SDRAM (2x1ГБ, CL2-3-2-5)
Жесткий диск: Maxtor MaXLine III 7B250S0 (Serial ATA-150, буфер 16МБ)
Блок питания Enermax Liberty 620W (ELT620AWT, номинальная мощность 620W)
Монитор: Samsung SyncMaster 244T (24”, максимальное разрешение 1920х1200@75 Гц)
Microsoft Windows XP Pro SP2, DirectX 9.0c
ATI Catalyst 6.10
NVIDIA ForceWare 96.97 Release Candidate.
Драйверы были настроены таким образом, чтобы обеспечивать максимально высокое качество текстурной фильтрации:

ATI Catalyst:

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive antialiasing: Off
Temporal antialiasing: Off
High Quality AF: On
Остальные настройки: по умолчанию
NVIDIA ForceWare:

Texture Filtering: High quality
Anisotropic sample optimization: Off
Trilinear optimization: Off
Force mipmaps: None
Threaded optimization: Auto
Gamma correct antialiasing: On
Transparency antialiasing: Off
Vertical sync: Force off
Остальные настройки: по умолчанию
Так как мы имеем дело с абсолютно новой графической архитектурой, то прежде чем перейти к тестированию GeForce 8800 GTX в играх, мы решили провести несложное теоретическое исследование. Это позволило нам узнать о сильных и слабых сторонах архитектуры NVIDIA GeForce 8800. Для этого были использованы следующие тесты:

Marko Dolenc’s Fillrate Tester
Xbitmark version 0.65
Futuremark 3DMark05 build 1.2.0
Futuremark 3DMark06 build 1.0.2

Качество FSAA и анизотропной фильтрации
Прежде чем перейти к вопросам производительности GeForce 8800 GTX в теоретических тестах, мы провели небольшое исследование на тему качества сглаживания и анизотропной фильтрации, обеспечиваемого новыми графическими решениями NVIDIA.

Следует сказать, что механизм управления режимами полноэкранного сглаживания был улучшен в новой версии ForceWare. В окне выбора Antialiasing – Mode появилась опция Enhance the application setting. Она служит для тех случаев, когда игра обладает поддержкой FSAA и позволяет включать сглаживание своими средствами, но ее настройки ограничены стандартным набором режимов – 2х, 4х, и, иногда, 8x. Если опция Enhance the application setting не включена, выбор режима 8x в игре приведет к активации MSAA 8x, а не CSAA 8x. В случае же активации вышеупомянутой опции в панели управления ForceWare, драйвер получает возможность определять, включено ли сглаживание в настройках игры и заменить FSAA 2x/4x режимом CSAA, выбранным из списка опции Antialiasing – Setting: 8x, 16x или 16xQ.

Этот механизм предназначен для обеспечения лучшей совместимости и стабильности в тех играх, которые позволяют включать FSAA, но ограничены стандартным набором режимов. Если игра не обладает настройками сглаживания вообще, следует использовать режим Override any application setting, но в некоторых случаях агрессивное форсирование FSAA может привести к появлению визуальных артефактов, нестабильности или даже невозможности запуска игры. Все скриншоты, использованные в этом исследовании, были получены в режиме Enhance the application setting, так как проверка с помощью ATI TheCompressonator показала их полную попиксельную идентичность скриншотам, сделанным в режиме Override any application setting.

(C) http://www.overclockers.ru/lab/23890.shtml

4

Сколько NVIDIA GeForce 4 MX4000 ни разгоняй...

Когда в Сети появились первые упоминания о NVIDIA GeForce MX 4000, поначалу было не совсем ясно, что же это за зверь, и чем он лучше или хуже GeForce 4 MX 420, MX 440, MX 460 и MX480 – того же GeForce 4 MX 440, только с поддержкой AGP 8x.

В скором времени выяснилось, что "новинка", по сути, ничем не лучше и не хуже старых чипов. Это тот же GeForce4 MX 440, но с немного обновленным контроллером памяти: на рынке появилось достаточное количество недорогих и емких микросхем памяти, и, благодаря доработанному контроллеру в новом GeForce 4 MX 4000, видеокарты при сохранении прежнего объема видеопамяти могут брать на борт уже меньшее количество микросхем DDR SDRAM.

Судя по ассортименту видеокарт на базе NVIDIA GeForce MX 4000, производители с радостью приняли обновление серии GeForce4 MX – количество чипов памяти становится меньше, разводка печатных плат становится проще, а сами платы – дешевле. GeForce 4 MX 4000 – это идеальный вариант для производства обрезков с шириной шины 64 бита: те же необходимые 128 МБ можно набрать всего четырьмя 16-битными TSOP-чипами с ёмкостью 256Мбит.

Кстати, сказав "необходимые 128МБ", я не имею в виду то, что они необходимы видеокарте для работы в высоких разрешениях и тяжелых режимах – в таких условиях эти платы работают со скоростью мертвой черепахи, и никакие объемы видеопамяти здесь не помогут. Зато эти 128 МБ на борту нужны производителям и продавцам: далеко не каждый покупатель понимает, что 128МБ – это не всегда в два раза лучше, чем 64МБ, и в результате спокойно покупает 128-мегабайтного уродца с 64-битной шиной.

Но это еще не всё. Считаете, что 128МБ – лишние для таких плат? Хорошо, лишние. Хотите 64 мегабайта? Да запросто! Берем 64-битную видеокарту на базе NVIDIA GeForce 4 MX 4000 и ставим на нее не четыре, а два чипа памяти. Получаем видеокарту с 64 мегабайтами и 32-битной шиной памяти. Еще раз: видеокарту с 32-битной шиной памяти! Вспоминаете NVIDIA Vanta, что была вечным объектом критики из-за своей урезанной шины? А сейчас на дворе 2004 год, и рассказывать о том, какой производительностью в современных играх могут похвастаться эти платы, я думаю, не стоит – они недалеко ушли от той же NVIDIA Vanta.

Сделав запрос в price.ru по фразе "MX 4000", вы сможете убедиться сами: первые несколько страниц в списке предложений – парад 32-битных уродов. Цены таких видеокарт начинаются в районе 30-35 долларов и простираются до 40-45$. Но уже начиная с отметки в 35-40$ начинают встречаться платы с 64-битной шиной памяти.

Верхняя планка стоимости видеокарт на базе GeForce 4 MX 4000 по price.ru – в районе 60-70$. Но даже среди самых дорогих видеокарт, основанных на NVIDIA GeForce4 MX4000, практически не встречаются видеокарты со 128-битной шиной памяти. Оно и неудивительно: место 128-битных плат прочно занимает GeForce4 MX 440 или MX 480 c ценами, начинающимися на отметке 40$.

Итак, к чему я затеял перечисление всех этих вариантов и цен? К тому, что 32-битные варианты видеокарт на базе NVIDIA GeForce 4 MX 4000 можно рассматривать только как самые дешевые видеокарты для офисного применения: качество вывода изображения на монитор у них имеет все шансы быть лучше, чем у встроенных графических контроллеров, а скорость офисных машин в 3D-приложениях никого не волнует.

Если же хочется не мертвого, а хотя бы полумертвого 3D, и при этом полноценный 128-битный GeForce4 MX440 в силу каких-то причин не подходит, то можно попробовать на вкус 64-битный вариант GeForce 4 MX 4000. Что из этого получится, мы сейчас и выясним.

Сегодня мне представилась возможность протестировать видеокарту на NVIDIA GeForce 4 MX4000, имеющую 64-битную шину памяти – в нашу тестовую лабораторию попала видеокарта ASUS V9400 Magic/T/P/128M/A:

http://www.overclockers.ru/images/lab/2004/05/12/card.jpg
Плата поставляется в Retail-варианте – всё как положено: картонная коробка, в которой находится компакт-диск с драйверами и утилитами, руководство пользователя, и, собственно, сама видеокарта. Но размеры самой картонной коробки – определенно, детские, "для самых маленьких любителей 3D" .

На фото ниже – коробка с ASUS V9400 Magic в сравнении с коробкой от ASUS V9570 TD на базе GeForce FX 5700:
http://www.overclockers.ru/images/lab/2004/05/12/boxes.jpg
Удивительно: неужели компания ASUS, славящаяся огромными размерами коробок своих Retail-комплектов, в данном случае решила сэкономить на картоне?

Видеокарта основана на графическом процессоре NVIDIA GeForce 4 MX 4000 и оснащена 128 МБ видеопамяти в четырех 256-мегабитных чипах DDR SDRAM от Samsung c временем цикла 4 нс (Samsung K4D551638D-TC40). Тактовые частоты графического ядра и видеопамяти в номинале составляют 250/330 (165 DDR) МГц – очевидно, видеопамять на этой плате имеет огромный разгонный потенциал, ведь максимальная номинальная частота для таких чипов составляет не 330, а 500 МГц.

Разгон видеокарты не только подтвердил, но даже превзошел ожидания: максимальные тактовые частоты, на которых видеокарта заработала устойчиво, составили 400/600 МГц (!). Впрочем, этот результат скорее закономерен, чем уникален: графические процессоры серии GeForce 4 MX выпускаются уже давным-давно, процесс производства отлажен, и процент выхода годных чипов, очевидно, очень высокий. Это значит, что разгонный потенциал таких чипов также должен быть очень солидным.

Что же касается видеопамяти, то 600 МГц для чипов, номинальная частота которых составляет 500 МГц – ничем не выделяющийся результат. Эти 600 МГц впечатляют только в сравнении с 330 МГц - той номинальной частотой видеопамяти, которая установлена на ASUS V9400 Magic.

Итак, разгонный потенциал этого экземпляра GeForce 4 MX 4000 оказался прекрасным. Но уж если разгонять – так разгонять по максимуму. Для того, чтобы выжать из GeForce 4 MX 4000 все соки, я повысил напряжение питания графического процессора и видеопамяти и установил систему водяного охлаждения.

Конечно, использование системы водяного охлаждения для разгона видеокарты, которая стоит дешевле, чем сама система – неправильно по определению, и в реальной практике такое сумасшествие встречается нечасто. Но я оправдываю себя тем, что если уж поставлена цель – добиться максимума, то для ее достижения можно использовать любые средства .

http://www.overclockers.ru/images/lab/2004/05/12/ready.jpg
Итак, для повышения напряжения питания на видеокарте я подпаял два дополнительных подстроечных резистора сопротивлением 1 кОм так, как показано на фотографии
http://www.overclockers.ru/images/lab/2004/05/12/voltmod.jpg
Эти резисторы изменяют соотношение сопротивлений в цепях обратной связи каналов микросхемы-контроллера APW7045, на которой основаны стабилизаторы питания графического процессора и микросхем видеопамяти. До модификации номинальные напряжения питания ядра и видеопамяти составляли, соответственно, 1.65 и 2.49В. После модификации, постепенно уменьшая сопротивление подстроечных резисторов, я остановился на величинах 1.85 и 2.95В.

Максимальные частоты, на которых плата заработала устойчиво при повышении напряжения и установке системы водяного охлаждения, составили 450/665 МГц. Двукратный разгон видеопамяти и почти двукратный разгон графического процессора – впечатляет, не правда ли? Лишь единичные видеокарты могут похвастаться таким уникальным разгонным потенциалом.

Впрочем, не будем забывать, что речь идет о GeForce 4 MX 4000 с 64-битной шиной памяти, поэтому, очевидно, что даже самая заурядная видеокарта среднего класса, скажем, GeForce FX 5700, даже без разгона легко опередит наш феноменально разогнанный "обрезок". Для того, чтобы проверить это, а также сравнить результаты GeForce 4 MX 4000 с 64-битной шиной памяти с результатами "полноценного" 128-битного GeForce 4 MX 440-8x, я провел несколько тестов.

Конфигурация тестовой системы:

Процессор: Intel Pentium 4 3000 МГц (800 МГц FSB)
Материнская плата: ASUS P4C800 (i875P)
Память: 2х512 МБ TwinMOS PC3200 CL2.5
Программное обеспечение:

Windows XP Pro
DirectX9.0b
Драйвер ForceWare версии 56.64.
Видеокарты были протестированы в Unreal Tournament 2004 Demo и Halo при максимальных из доступных установках качества в игровых настройках. Учитывая класс видеокарт, я провел тесты только в разрешениях 800х600 и 1024х768. Смею вас уверить, двух игровых тестов при двух разрешениях экрана будет достаточно, чтобы оценить, что же такое GeForce MX 4000 с 64-битной шиной памяти.

Результаты GeForce 4 MX 4000 без разгона, мягко говоря, не впечатляют: шина памяти на плате вдвое урезана по сравнению с шиной памяти GeForce 4 MX 440-8х, и результаты GeForce 4 MX 4000, соответственно, оказались вдвое ниже.

Прирост производительности при разгоне GeForce 4 MX 4000 оказался почти двукратным. Тем не менее, даже при разгоне производительность GeForce4 MX 4000 оказалась ограничена пропускной способностью шины памяти, и, несмотря на значительное превосходство в частоте графического ядра над 128-битной платой, GeForce 4 MX 4000 лишь незначительно опередила GeForce 4 MX 440-8x.

Тема для отдельного разговора – превосходство GeForce 4 MX 4000 и GeForce 4 MX 440-8x над гораздо более мощной видеокартой на базе GeForce FX 5700 в Halo. Видеокарты серии NVIDIA GeForce 4 MX не имеют аппаратной поддержки вершинных и пиксельных шейдеров DirectX 8, не говоря уже о шейдерах DirectX 9. Поэтому современные игры, использующие шейдеры DirectX 8 и DirectX 9, при работе на таких видеокартах отключают использование шейдеров, то есть, переходят в упрощенные режимы построения изображения.

Halo – как раз, та игра, что использует шейдеры DirectX 8 и DirectX 9, поэтому среди всех видеокарт, протестированных на этот раз, лишь плата на базе GeForce FX 5700 отработала "по полной программе". Разницу в качестве изображения на NVIDIA GeForce 4 MX 4000 и NVIDIA GeForce FX 5700 в Halo трудно не заметить: все шейдерные эффекты на GeForce 4 MX пропадают бесследно.

Итак, подводим итоги.

NVIDIA GeForce 4 MX 4000 с 64-битной шиной памяти – видеокарты, вдвое более медленные, чем GeForce 4 MX 440. О производительности плат с 32-битной шиной памяти лучше тактично умолчать.
NVIDIA GeForce 4 MX 4000 стоят всего на несколько долларов дешевле, чем полноценные GeForce 4 MX 440-8х или даже GeForce FX 5200 со 128-битной шиной памяти. В случае с видеокартами от ASUS, вполне закономерно (качество, надежность, комплект поставки и т.д.) стоящими дороже "безымянных" плат, эта разница стремится к нулю или становится, вообще, отрицательной.
Судя по всему, NVIDIA GeForce 4 MX 4000 имеют прекрасный разгонный потенциал. Но, судя по тестам, даже при почти двукратном разгоне лишь ненамного опережают NVIDIA GeForce MX 440-8x. Очевидно, что даже самый скромный разгон GeForce 4 MX 440-8x тут же вернет плате преимущество над разогнанным обрезком. "Сколько MX 4000 не гони..." 
Все чипы серии NVIDIA GeForce4 MX не имеют аппаратной поддержки шейдеров DirectX 8, не говоря уж о DirectX 9.
Обобщив все вышесказанное, я могу смело порекомендовать NVIDIA GeForce 4 MX 4000 тем, кого принципиально не интересует скорость в 3D или тем, кто хочет заменить устаревшие 2D-видеокарты в рабочих машинах. NVIDIA GeForce 4 MX 4000 с 32-битной и 64-битной шиной памяти – прекрасные кандидаты на эту роль.

5

Анонс видеокарт на базе чипа AMD (ATI) R600 уже в который раз откладывается. Казалось бы, ждать оставалось совсем немного, но снова и снова в новостных колонках ведущих сайтов о IT-индустрии можно лицезреть фразу "R600 отложен". По последним (полуофициальным) данным, презентация видеокарт на основе новоиспеченного чипа ожидается в начале второго квартала текущего года, так что остается лишь надеется, что переносов на еще более поздние сроки не возникнет. Однако вполне возможно, что особо торопиться и не стоит - ведь уже не за горами анонс обновленного чипа G80. Скорее всего, AMD (ATI) решили немного повысить частоты флагманских решений, дабы те успешно конкурировали с будущими решениями от NVIDIA. Также требуется сразу выпустить достаточное количество видеокарт, чтобы анонс не выглядел бумажным. Так или иначе, на базе чипа R600 будут представлены самые разные модели видеокарт - от доступных mainstream performance до дорогущих high-end. Судя по всему, со временем будут выпущены и двухчиповые монстры. На их основе предполагается продвигать концепцию Quad CrossFire - наш ответ Чемберлену в лице NVIDIA Quad SLI.

Однако все это хотя и в ближайшем, но все же несколько туманном будущем. Сегодняшний же флагман канадцев, Radeon X1950 XTX, попросту не может тягаться с анонсированным еще в четвертом квартале прошлого года GeForce 8800 GTX. Спасает ATI лишь дороговизна видеокарт на базе графического процессора G80, поэтому решения AMD (ATI) Radeon X1900 / X1950 остаются довольно популярными (особенно с учетом снижения цен).

Да уж лажа еще та....

Купил ноут на чипе х1950... И что же я увидел... Конечно не поспорю на Windows Vista/XP все идет и летает.... Но не  Microsoft-том единым человек жив. На ноуте не (вернее установилась), но не определилась видео (для тех кто в танке выше описанное), скачка + компиляция + настройка + установка на Linux Mandriva 2007 к положительным результатам не привела... Вернее я все же положил... на установку... Гуру NIX help me please///

6

Фото и некоторые данные о GeForce 9800 GX2

NVIDIA готовит к выпуску двухчиповую видеокарту GeForce 9800 GX2. Новый продукт будет базироваться на двух графических 65-нм чипах G92-400-A2 со 128 потоковыми процессорами, расположенных на отдельной плате и будет оснащаться видеопамятью GDDR3 общим объемом в 1 ГБ.

В качестве периферийных разъемов на карте найдут место два DVI, HDMI и оптический S/PDIF.

Видеокарты GeForce 9800 GX2 будут поддерживать только простой SLI-режим, поддержка же 3-way SLI не предусмотрена.

Для данной видеокарты производитель рекомендует блок питания мощностью 580 Вт, который сможет обеспечивать 40 А по линии 12В. На карте расположены два разъема для подключения дополнительного питания - один 6-pin и 8-pin.

Выпуск GeForce 9800 GX2 является ответом на двухчиповый Radeon HD 3870 X2, который AMD грозится представить уже в конце января. Новое решение от NVIDIA будет на 30% быстрее бывшего флагмана - GeForce 8800 Ultra.
https://forumupload.ru/uploads/0000/35/39/110324-1.jpg

https://forumupload.ru/uploads/0000/35/39/110324-2.jpg

https://forumupload.ru/uploads/0000/35/39/110324-3.jpg

https://forumupload.ru/uploads/0000/35/39/110324-4.jpg

https://forumupload.ru/uploads/0000/35/39/110324-5.jpg


Вы здесь » Black And White » Hardware [ Железо ] » Видео карты