Лаборатория продолжает цикл статей о ретроклокинге. Наступил 2020 год, а значит, настало время подвести кое-какие итоги. Я решил отойти от процессорной темы, посмотреть на развитие видеокарт и изучить двадцатилетний период, применительно к топовым представителям компании NVIDIA.
реклама
Задача не из простых, но результат получился очень интересным, поехали!
В данной статье будут рассмотрены все флагманские видеокарты NVIDIA с AGP интерфейсом, начиная с NVIDIA Riva TNT2 Ultra и заканчивая седьмым поколением GeForce с HSI мостом (High Speed Interconnect bridge). Последний на переходном этапе от AGP к первому поколению PCI-Express давал возможность создавать гибриды из GPU, изначально созданных для поддержки нового графического интерфейса видеокарт, устанавливаемых в AGP разъем.
На первоначальном этапе развития PCI-Express интерфейса парк AGP машин был просто огромен и для удовлетворения спроса на новые видеокарты с новыми GPU приходилось прибегать к таким промежуточным решениям. Со времен пятой серии GeForce PCX мост HSI располагался поодаль от GPU, ближе к AGP разъему и накрывался отдельным радиатором.
реклама
Затем в шестой и седьмой сериях GeForce микросхема HSI и вовсе перекочевала под рамку графического процессора, расположившись рядом с основным кристаллом.
Теперь же, в 2020 году, видеокарты AMD уже перешли на четвертое поколение интерфейса PCI-Express, а ускорители NVIDIA пока лишь готовятся к этому.
Тестовый стенд и нюансы сборки
Беря во внимание поставленную задачу, необходим тестовый стенд, который, во-первых, даст возможность протестировать все видеокарты в абсолютно одинаковых условиях с одними же и теми настройками; во-вторых, с одними и теми же сопутствующими компонентами, будь то оперативная память или процессор. Последний в свою очередь не должен быть слабым звеном по отношению к современным видеокартам и способен их максимально нагрузить.
Видео:Самая мощная видеокарта на AGPСкачать
Брать две материнские платы с обоими интерфейсами – не вариант для такой задачи. В результате выбор сводился к использованию нестандартных решений на Socket 775 производства ASRock с двумя графическими интерфейсами на борту. Речь идет о моделях ASRock серии 775Dual и 4Core в различных вариациях.
Мне удалось найти ASRock 4CoreDual-VSTA, которая имеет AGP 8X разъем, а также PCI-Express. Она также позволяет использовать оперативную память стандарта DDR2 и поддерживает четырехъядерные процессоры семейства Core2 Quad с 8 и 12 Мб кэша второго уровня на ядрах «Kentsfield» и «Yorkfield».
Столкнувшись вплотную с работой данной материнской платы, я хочу сказать, что её ценность сильно переоценена, как основы для тестового стенда, претендующего на роль «универсальный». Остановлюсь на наиболее неприятных моментах:
- Слабая система питания процессора, так и просящая кастомной оптимизации;
- Крайне неудобная разводка PCB материнской платы, особенно основного ATX разъема питания;
- Отсутствие возможности повышения напряжения на процессор, чипсет;
- Минимальная возможность повышения напряжения на оперативную памяти стандарта DDR2 всего до 2.0 вольт;
- Небольшие возможности разгона по FSB;
- Фактическая неработоспособность режима DDR2 667 МГц и Command rate = 1T.
реклама
Из не всех перечисленных минусов, в плюсы можно отнести поддержку 4-х ядерных процессоров Intel и наличие AGP и PCI-express интерфейса. Но, так как альтернатив для таких целей нет, то попытаюсь дать рекомендации как лучше использовать эти серии материнских плат.
- Используйте последние модифицированные бэта BIOSы. Для моей модификации это BIOS 2.39a. Иначе вышеперечисленных минусов будет гораздо больше ?
- Не используйте DDR2 память на чипах Micron. Хотя решения на Micron D9хх являются самыми быстрыми, но на этой плате вы получите больше синих экранов, чем каких-либо результатов. Лучше будет использовать память на чипах Elpida, а за неимением оных – Qimonda.
- Не выставляйте частоту памяти 667 МГц, так как производительность в этом (4:5) режиме будет меньше, чем при дефолтной частоте 533 МГц, которая находится в соотношении 1:1 по отношению к FSB. К тому же при установке в BIOS значения Command rate = 1T, в реальности вы получите 2T.
- Тайминги памяти лучше оставить по умолчанию. Их уменьшение может не дать положительного результата. Пример из AIDA64.
Читайте также: Гребенчатая шина для автоматических выключателей
реклама
В 3DMark 2001SE итоговый результат при неизменных настройках с таймингами 3-3-3 составил 47259 баллов, с 4-4-4 (по умолчанию режим Auto) – 47469.
Видео:Тестер PCI-E 16x и AGP шины видеокартСкачать
- Используйте процессор только со свободным множителем, если хотите получить большую производительность при минимуме страданий. Без вольтмодов стабильная частота FSB находится в пределах 280 МГц. В моем случае это 283 МГц, что не позволит раскрыть потенциал большинства Core2 Quad или Core2 Duo.
- При использовании процессора со свободным множителем вам все же придется сделать «pin-mod» процессору, так что без стороннего вмешательства не обойтись.
- При использовании PCI-Express видеокарт, начиная с 8-й серии следует установить в BIOS опции PCIE Downstream Pipeline и PCIE VC1 Request Queue в положение – Disable, иначе есть шанс увидеть лишь черный экран.
- Это лишь малая часть советов, остальное вы найдете в соответствующей теме на форуме.
Вообще, у меня сложилось такое отношение к этой плате, что лучше её использовать с настройками по умолчанию, параллельно отключив ненужные устройства и технологии. Я еще не встречал таких плат, когда в режиме Full-Auto они работают лучше, чем настроенные вручную. Хвала и слава инженерам ASRock!
Центральный процессор
Приходим к выбору центрального процессора. Для раскачки серьезных PCI-Express видеокарт, с парой дополнительных разъемов питания необходим самый быстрый процессор, который возможно установить в эту материнскую плату, иначе такая видеокарта будет «простаивать» в ожидании очередной порции данных от CPU. В последнем официальном BIOS таким процессором заявлен Core 2 Extreme QX6800 на ядре «Kentsfield», но с неофициальным BIOS можно использовать Intel Core 2 Extreme QX9650/QX9770 на ядре «Yorkfield».
реклама
В очередной раз, благодаря помощи моего итальянского коллеги по разгону «GRIFF», из команды оверклокеров «XtremeOverdrive OC team Italy», который прилетал в наши края, я получил в свое распоряжение Intel Core 2 Extreme QX9650 и несколько недостающих видеокарт, так что выход данного материала отчасти и его заслуга.
Intel Core 2 Extreme QX9650 имеет тактовую частоту 3000 МГц, свободный множитель (по умолчанию х9) и FSB равную 1333 МГц. Но при установке в материнскую плату он по умолчанию запускается на частоте 2400 МГц (266 х9). Мой экземпляр основан на C1 степпинге, поэтому шанс на разгон был неплохим. В таких условиях с материнской платой ASRock я рассчитывал минимум получить стабильные 3.8 ГГц, лучше 4 ГГц ровно, либо чуть больше, используя воздушное охлаждение.
реклама
По умолчанию напряжение на процессоре равнялось 1.250 В, под нагрузкой оно проседало до 1.150 В. В таких условиях без стороннего вмешательства ЦП был стабилен лишь на частоте 3200 МГц. Самый простой способ повысить напряжение на процессоре это «pin mod». Я думал, что 1.40 В будет достаточно для покорения задуманных цифр, что и было сделано.
Но в реальности, благодаря просадке напряжения, по данным мультиметра вышло лишь 1.29 В, что, естественно, недостаточно. И я сразу решил ставить 1.55 В, поскольку комбинация этого варианта «pin mod’a» была также проста.
Читайте также: Датчики давления в шины с монитором
реклама
Видео:HD3850 - самая мощная AGP видеокартаСкачать
В реальности получил 1.42 В, хотя мониторинг BIOS меня убеждал что подается 1.354 В. При таком напряжении процессор стабильно функционировал на частоте 4050 МГц, но для пущей стабильности я установил итоговую тактовую частоту ровно на 4 ГГц.
реклама
В итоге в составе тестового стенда были следующие компоненты:
- Intel Core 2 Extreme QX9650 3,0@4,0 ГГц;
- Thermaltake Big Typhoon;
- ASRock 4CoreDual-VSTA (VIA PT880 Ultra Chipset);
- 2 Гб DDRII Corsair Dominator (4-4-4-12 1Т);
- SSD SATA Kingston SSDNow V300 SATA-III 60 Гб ;
- Zalman ZM1000-EBT, 1000 Вт.
Тестирование проводилось в Windows XP Sp3 с помощью следующего ПО:
- 3Dmark2001SE Pro b330;
- 3Dmark2003 v.3.6.1;
- 3DMark 2005 v.1.3.1
- 3DMark 2006 v.1.1.1;
- Comanche 4 Benchmark;
- Unreal Tournament 2003;
- Return to Castle Wolfenstein;
- Max Payne;
- Quake 3 Arena;
- Doom III;
- Far Cry;
- Resident Evil 5 Benchmark;
- Final Fantasy XI Benchmark;
- Phantasy Star Online 2 Benchmark;
- Tom Clancy’s Splinter Cell.
Список бенчмарков и игр оказался достаточно внушительным. Критерий выбора сводился к тому, чтобы по возможности все видеокарты смогли отличиться своими результатами в большинстве тестов, как ниже представленные с AGP интерфейсом, так и будущие участницы с PCI-Express, которые находятся в процессе поиска и отбора.
Участники тестирования
Riva TNT2 Ultra
Итак, возглавить начало нашего чарт-листа выпала честь представительнице до GeForce эры – Riva TNT2 Ultra. Ниже её я не стал включать в тестирование видеокарты, во-первых из за малого количества видеопамяти, так как считаю что 32 Мб для выше перечисленных тестов это необходимый минимум и во-вторых, отсутствие у GPU поддержки аппаратных технологий ускорения 3D графики, хотя бы такой как аппаратная трансформация и освещение (Transform and Lighting (T&L)). Без неё большинство игр и бенчмарков попросту не запуститься, а ведь еще есть и шейдеры и их версии…
Riva TNT2 Ultra вышла в марте 1999 года, GPU работал на частоте 150 МГц, 32 Мб SDRAM памяти на 183 МГц. GPU Поддерживал DirectX версии 6.0 и начитывал 15 миллионов транзисторов. Рекомендованная стоимость на момент выхода $300.
Видео:Чем отличается AGP от PCI EXPRESS входы на видеокартахСкачать
Типичный представитель Riva TNT2 Ultra от Asus.
Я использовал видеокарту Gigabyte GA-660 Plus (170/180 МГц), эта вариация TNT2, которая даже быстрее чем Ультра, но итоговые частоты я привел с дефолтному значению TNT2 Ultra — 150/183 МГц.
Хотя плата по современным меркам кажется очень простой, но вот коробки к ним, как новогодние елки, смотреть на них даже сейчас — одно удовольствие!
GeForce256
GeForce256 можно сказать был главным событием не только августа, но и всего 1999 года. Новый революционный GPU получил аппаратный геометрический блок Transform and Lighting (T&L), который взял на себя задачи по трансформации и освещению вершин полигонов, освободив от этих расчётов CPU. Частота GPU была меньше чем у предыдущего флагмана и составляла скромные 120 МГц. Было выпущено две модификации видеокарт, одна с SDR SDRAM памятью с частотой 166 МГц, чуть позже с DDR SDRAM с эффективной частотой 300 МГц. GPU поддерживал DirectX 7-й версии и состоял из 23 миллионов транзисторов. Рекомендованная стоимость на момент выхода $280.
В моем случае честь первого GeForce будет отстаивать вариант ASUS – модель AGP-V6600/32M(TVR) с SGRAM памятью, которая несколько быстрее SDRAM.
За версию GeForce256 с DDR SDRAM память уже просили от $300. Данный вид видеокарт появился в продаже в начале 2000 года, а вот мне сейчас не удалось найти ни одной такой видеокарты.
Читайте также: Шины мишлен в краснодаре летние
GeForce2 Ultra
GeForce2 Ultra – представитель второго поколения GeForce и можно сказать вторая ультра, если брать в расчет первую TNT2 Utlra. Видеокарта была представлена публике в середине августа 2000-го года. По сравнению с первым GeForce отличия были количественные, а не качественные. Более «тонкий» тех. процесс производства способствовал увеличению тактовых частот и двукратного увеличения функциональных блоков GPU. Транзисторный пакет составил 25 млн шт., или плюс 2 миллиона транзисторов. Поддержка AGP 4X и API DirectX 7 сохранились, а вот рекомендованная стоимость поднялась до $500.
Видео:Обзор agp видеокарта для старых платСкачать
Графический процессор GeForce2 Ultra работал на частоте 250 МГц, 64 Мб скоростной DDR-SDRAM памяти работали уже на внушительных 460 МГц.
TDP видеокарты подросло до 41 Вт, появились радиаторы на видеопамяти, радиатор GPU также прибавил в размерах. Цифры Fillrat’a, также громко заявляли о 1 Гигапикселе и 1 Гигатекселе соответственно, маркетологи этими цифрами сразу же воспользовались при рекламе видеокарты.
GeForce3 Ti500
GeForce3 Ti500 – Titanium! Представитель новой шейдерной архитектуры и первый Titanium был анонсирован в октябре 2001 года. GeForce3 Ti500 принес с собой новую эру шейдеров и новую версию API DirectX 8.0. Отличия от GeForce2 Ultra были уже эволюционными. GPU обзавелся вершинным конвейером, который поддерживал движок nFinite FX Engine, который отвечал за поддержку пиксельных и вершинных шейдеров стандарта Microsoft Shader language версии 1.1 Отныне началось деление игр, которые могут работать с шейдерами, и те, которые нет. Именно развитие шейдерной архитектуры в последующий период времени будет задавать дальнейший путь развития видеокарт.
Глядя на цифры нового флагмана от NVIDIA можно увидеть всё тот же один Гигапиксель и один Гигатексель. По скорости работы предшествующий ТОП — GeForce2 Ultra обгонял GeForce 3 и GeForce 3 Ti200, но только там, где не было шейдеров, хотя вначале количество более «реалистичных шейдерных» игр было небольшим. А вот уже GeForce3 Ti500 благодаря новой технологии работы видеопамяти, которая получила название LMA (Lightspeed Memory Architecture), выигрывал за счет эффективности управления пропускной способностью и заполнения памяти.
Частота работы GPU составляла 240 МГц, DDR-SDRAM память работала на 500 МГц. Количество транзисторов увеличилось до 57 миллионов, стоимость также подросла до $350. Для тестов использовалась GeForce3 Ti500 производства Leadtek.
GeForce4 Ti4600
Geforce4 Ti 4600 был представлен в начале февраля 2002 года и являлся усовершенствованной версией предыдущего поколения. Количество транзисторов GPU увеличилось, но ненамного – до 63 миллионов. Частота GPU подросла до 300 МГц, видеопамять до 650 МГц, при неизменном тех. процессе. Все те же технологии LMA и nFinite FX Engine обзавелись второй версией, предельный объем видеопамяти, остался прежним — равным 128 Мб.
Изменения коснулись GPU, добавился второй вершинный конвейер, стали поддерживаться шейдеры версии 1.4, появилась технология TwinView, благодаря которой пара RAMDAC, размещенные непосредственно в ядре GPU, дали возможность использовать сразу два монитора. Также появился новый метод сглаживания — 4xSAA, который по своей сути являлся улучшенной версией 4XAA и позволял получить более качественную картинку при минимальных затратах ресурсов GPU. Цена новинки на старте продаж составила $350.
На фото изображена Geforce4 Ti 4600 производства ASUS, я использовал аналогичную видеокарту производства MSI.
Видео:Видеокарты AGP покупайте пока есть ✔ о ценах и судьбе ретро моноблока SONYСкачать
А еще ниже можно увидеть альтернативы в исполнении Sparkle, Gainward и Leadtek:
- Свежие записи
- Нужно ли менять пружины при замене амортизаторов
- Скрипят амортизаторы на машине что делать
- Из чего состоит стойка амортизатора передняя
- Чем стянуть пружину амортизатора без стяжек
- Для чего нужны амортизаторы в автомобиле
🎥 Видео
Nvidia Geforce 6600: PCI-E vs AGPСкачать
Sapphire HD 3850 AGP - самая мощная видеокарта на шину AGPСкачать
Виды видеопамяти и сколько её нужно? Какая нужна шина?Скачать
AGP 8x против старой версии шины PCI(32bit) на примере FX5500Скачать
Моя коллекция видеокарт на AGPСкачать
Как выбрать видеокарту. Или почему шина 256 бит - не рулит. (см. описание)Скачать
Отключаем поэтапно память у RTX 3090 и 3060 и измеряем разницу в производительности.Скачать
Очень важные параметры видеокарты, на которые редко обращают внимание при покупке!Скачать
Влияние шин PCI-e и внутренней шины видеокарты на производительностьСкачать
Топовая AGP видеокарта и 478 сокет. Что может в играх?Скачать
Видеокарта AGP FX 5200 128MBСкачать
Системная шина персонального компьютера AGPСкачать
Совместима ли видеокарта с вашей материнской платой?Скачать
Всё о видеокартах за 11 минутСкачать