Среда, 27.11.24, 19:21
Добро пожаловать! Гость
[ Новые сообщения · Участники · Правила форума · Поиск · RSS ]
  • Страница 1 из 1
  • 1
Radeon HD 48** vs GeForce GTX 2**
USSRxSG13Дата: Вторник, 22.07.08, 22:07 | Сообщение # 1
Освоился
Группа: Проверенные
Сообщений: 108
Статус: Offline
Всего пару недель тому назад в мире nVidia всё было тихо и спокойно. Крупнейший производитель видеокарт только что выпустил новые модели GeForce GTX 260 и 280, которые, несмотря на задержку в шесть месяцев, дальше продвинули унифицированную архитектуру, введённую с GeForce 8, до самых пределов 65-нм техпроцесса с гигантским количеством транзисторов. Производительность по сравнению с предыдущим (теперь уже старым) поколением видеокарт не особо впечатляла (прирост 59% в среднем относительно 9800 GTX), но появление приложений CUDA стало интересным шагом вперёд, да и реального конкурента у nVidia не было. Между тем AMD, казалось, всё больше разочаровывалась в графическом подразделении, которое было не способно конкурировать на high-end сегменте рынка, как когда-то, а существующие high-end видеокарты быстро устаревали. Затем последовал громкий выпуск видеокарты Radeon HD 4850, которая появилась в тестовых лабораториях раньше анонса, а розничная цена была заявлена на уровне $199.

Да, в лагере AMD случилось чудо. Производительность Radeon HD 4850 удивила всех, включая nVidia. Несмотря на поспешный выпуск видеокарты GeForce 9800 GTX+, которая не появится в розничных каналах раньше середины июля, nVidia всё равно не могла получить такое же великолепное соотношение цена/производительность, как у новинки Radeon, что мы уже демонстрировали в тестах Radeon HD 4850. Обычно маркетинговые доводы, такие как оптимизация эффективности и выход годных кристаллов, всегда звучавшие неубедительно, получили новое значение, учитывая результаты тестов Radeon HD 4850. Новинка пробудила надежды на ещё более высокую производительность в будущем. Получив (наверное, даже к собственному удивлению) хорошую возможность увеличить число потоковых процессоров с 320 до 800, несмотря на 43% повышение числа транзисторов и прежний техпроцесс, AMD решила не оставаться "на дне", и к лучшему. Был объявлен GPU Radeon HD 4870, основанный на такой же архитектуре, но обеспечивающий более высокую производительность (понятно, что по большей цене), однако появлялся он в тестовых лабораториях весьма неспешно, да и не всё было понятно до последнего момента. По крайней мере, на бумаге эта видеокарта являлась прямым конкурентом новым high-end моделям nVidia, но по существенно меньшей цене. Но что мы получили на деле?

Более быстрая память

Долгое время nVidia была пионером по внедрению новейших технологий памяти. После использования памяти DDR для GeForce в 2000 году, компания из Санта-Клары оказалась первой, представившей память GDDR2 с видеокартой GeForce FX, затем GDDR3 с моделью GeForce 5700. Но затем лидерство перехватила ATI: GDDR4 впервые появилась вместе с моделью Radeon X1950 XT, а сегодня, два года спустя, ATI представила первую видеокарту с памятью GDDR5: Radeon HD 4870.

С повышением пропускной способности памяти всё понятно: есть два пути. Первый заключается в расширении шины памяти, а второй - в увеличении частоты работы. Первый способ имеет несколько препятствий. Более широкую шину сложно разводить на печатной плате, да и упаковка требует больше контактов. Все эти контакты необходимо подвести к чипу, которому необходимо большее число интерконнектов по периферии кристалла. Поэтому широкая шина требует, чтобы ядро было определённого размера - именно по этой причине долгое время GPU начального уровня были ограничены 128-битной шиной, в то время как их high-end варианты использовали 256- или 384-битную шину. Ещё один недостаток заключается в увеличении энергопотребления чипа.

Поэтому к подобному способу прибегали очень осмотрительно. На самом деле, долгое время для high-end GPU использовалась 128-битная шина, от Riva 128 до Matrox Parhelia, да и ATI Radeon 9700 четыре года назад тоже её использовал. Точно так же 256-битная шина не становилась шире до появления nVidia GeForce 8800 в конце 2006 года. Да, требования по пропускной способности памяти у GPU постоянно увеличиваются, несмотря на технологии экономии пропускной способности, которые оптимизируются с каждым поколением.

Второе решение заключается в ускорении работы памяти. Но это легче сказать, чем сделать, поскольку, как и в случае с любой микросхемой, существует ограничение по тактовой частоте, на которой могут работать чипы памяти. Чтобы обойти эти ограничения, производители прибегают к разным ухищрениям. Память DDR позволяет передавать данные по нарастанию и спаду тактового импульса, удваивая эффективную пропускную способность памяти для прежней частоты. Для этого память DDR использует так называемый двухбитовый prefetch - при каждом обращении к памяти вместо передачи одного бита из prefetch-буферов, память DDR передаёт два. Последующие разработки технологии DDR предусматривали передачу всё большего числа данных на прежней физической частоте памяти, увеличивая ширину prefetch. DDR2 использует 4-битовый prefetch, как и GDDR3. С GDDR4 появился 8-битовый prefetch.

GDDR5

GDDR5 использует 8-битовый prefetch, как и GDDR4, однако отличается несколькими инновациями. Впервые GDDR5 использует две тактовые частоты, CK и WCK, последняя в два раза больше первой. Команды передаются в режиме SDR (стандартная тактовая частота) на частоте CK; адресная информация передаётся в режиме DDR на частоте CK; а данные передаются в режиме DDR на частоте WCK. В случае Radeon HD 4870, который использует память GDDR5 на частоте 900 МГц, команды передаются на частоте 900 МГц SDR, адреса на 900 МГц DDR (эффективная частота 1 800 МГц), а данные - на 1 800 МГц DDR (эффективная частота 3 600 МГц).

Этот подход снижает проблемы, связанные с качеством сигнала во время передачи команд и адресов, обеспечивая очень высокие частоты передачи данных. К сожалению, более высокие частоты также означают более высокую вероятность ошибки. Поэтому, чтобы обеспечить надёжную передачу данных, GDDR5 использует механизм обнаружения ошибок, который применяется в сетях. Если контроллер памяти определит ошибку, то команда, с которой она появилась, будет выполнена повторно.

Итак, AMD и nVidia выбрали весьма разные пути для увеличения пропускной способности памяти для своих GPU, и эти выборы связаны с разным взглядом на графические процессоры. nVidia, приверженная принципу огромного монолитного кристалла, может себе позволить 512-битовую шину памяти, избегая проблем с поставкой чипов, которой неизбежно сопровождается внедрение передовой технологии памяти. Напротив, с появлением RV770 AMD концентрирует свои усилия на GPU со сниженным размером кристалла для high-end видеокарт. Как нам сообщили инженеры AMD, первую версию RV770 предполагалась оснастить не более 480 потоковыми процессорами (АЛУ), но GPU при этом ограничивал число интерконнектов для интерфейсов памяти.

Поэтому AMD смогла предложить GPU, с которым все уже знакомы, с 800 потоковыми процессорами, которые почти что "бесплатны" в отношении площади ядра. У предыдущего поколения GPU nVidia пришлось забыть о 384-битовой шине при переходе с G80 (80 нм) на G92 (65 нм). Поэтому есть все шансы, что такой же шаг произойдёт и с 512-битовой шиной. Однако на этот раз nVidia может опереться на GDDR5, чтобы компенсировать потерю пропускной способности.


 
ORRTxCerlДата: Суббота, 26.07.08, 23:49 | Сообщение # 2
Продвинутый гость
Группа: Пользователи
Сообщений: 27
Статус: Offline
Ну чтож... магу тока пахвалить ребят из АТi ибо соотношение цена/производительность у них получилось реально опупенное... Но мну больше интересует что же будет дальше... представьте скока небезынтересных вещей могет выйти на рынок в будующем, ежели условия ткой активной конкуренции сохранятца cool ПС: сг, а за статейку спс tongue

Я сам из тех, кто чаще ходит в шлеме
Кто зажигает скоростью асфальт...
 
  • Страница 1 из 1
  • 1
Поиск:


Сайт управляется системой uCoz