Перейти к содержанию
Больше чем юмор, сильнее чем смех!

Рекомендуемые сообщения

Опубликовано

Ресурс NGOHQ со ссылкой на неизвестный, но очень надёжный источник сообщил о том, что в ближайшее время нас ожидают сразу 4 новых продукта в семействе видеокарт NVIDIA GeForce 7xxx. Информация неофициальна, поэтому пока к ней стоит отнестись скорее как к слуху, который имеет большие шансы обрести реальное подтверждение.

Итак, по информации источника, в недрах NVIDIA готовятся:

GeForce 7900 GS. Несколько замедленная версия 7900 GT. Самым актуальным, но пока не освещенным вопросом является, выйдет ли подобно тому, как это было с 7800GS, версия с интерфейсом AGP.

GeForce 7600 GTX. Судя по буквенному обозначению, нам будет представлена разогнанная версия 7600 GT. Вряд ли будет увеличено число конвейеров, так как такой представитель среднего ценового диапазона конкурировал бы с картами высшего. Учитывая удачность 7600 GT в соотношении "производительность/цена", GTX-версия должна, при умеренной цене, сделать преимущество NVIDIA в ценовом диапазоне 200-250 долларов подавляющим.

GeForce 7600 LE. Самая медленная видеокарта из линейки 7600, вполне возможно, что это ядро будет использоваться в будущих чипсетах NVIDIA в качестве встроенной графики.

GeForce 7300 GT. Об этой карте мы уже писали. Условно назовём её "быстрым" бюджетным акселератором. По имеющейся пока информации, её дебют должен состояться уже 15 мая.

Если информация, полученная NGOHQ от источника, который "ранее никогда не ошибался", подтвердится, то мы можем стать свидетелями небывалого разнообразия продуктов одного производителя видеокарт, причём разница в производительности между соседними ступеньками лестницы будет составлять зачастую не более 10%. Конечный же потребитель от такого подхода лишь выиграет - купить то, что нужно именно ему, не составит труда.

  • 4 месяца спустя...
Опубликовано

Появившиеся в конце прошлой недели фотографии эталонных видеокарт на базе видеочипа NVIDIA G80 наделали много шума. Даже самые закоренелые скептики, верующие во всемогущий Photoshop, оставляли мало сомнений по поводу достоверности опубликованных фотографий.

Из прочих данных, полученных одновременно с фотографиями, следует упомянуть наличие на видеокарте памяти типа GDDR-4. Её расположение в виде буквы "П" позволяет предположить, что G80 будет использовать 384-битный доступ к памяти вместо традиционного 256-битного. Система охлаждения G80, судя по представленным фотографиям, может иметь два конструктивных исполнения: гибридное (жидкостное + воздушное) и чисто воздушное. Не факт, что гибридный вариант появится на серийных видеокартах.

Сегодня известный тайваньский сайт DigiTimes со ссылкой на местных производителей сообщил, что анонс G80 всё же состоится в середине ноября этого года. Видеокарты получат обозначение вида "GeForce 8800" и поддержку DirectX 10. Коллеги считают, что последнее свойство данных видеокарт привяжет их популярность к степени доступности операционной системы Windows Vista и игр с поддержкой этого API. Как известно, без Windows Vista нельзя работать с DirectX 10. Эта точка зрения не учитывает того факта, что G80 может работать и с DirectX 9.0c. Пока факт использования чипом G80 унифицированной шейдерной архитектуры не доказан. Скорее, наоборот - представители NVIDIA ранее старались откреститься от резкого перехода на унифицированную шейдерную архитектуру, и относительно ранний анонс G80 в какой-то мере указывает на то, что NVIDIA уверена в конкурентоспособности нового продукта в существующей среде, подразумевающей использование DirectX 9.0c.

Тайваньские производители выразили сомнения в возможности выхода конкурирующего видеочипа R600 от ATI в текущем году. Коллеги с сайта The Inquirer сообщают, что чип R600 будет иметь 500 млн. транзисторов - свой вклад в формирование этой цифры сделали поддержка DirectX 10 и унифицированная шейдерная архитектура. Британские коллеги уверены, что R600 будет быстр и в DirectX 10, и в DirectX 9.0c. Более того, тесные отношения ATI с Microsoft могут давать первой преимущества в сфере оптимизации драйверов.

Опубликовано

В последние дни на страницах зарубежных сайтов всё чаще появляется информация о готовности NVIDIA представить видеокарты на базе чипа G80 уже в ноябре текущего года. Обсуждаются возможные характеристики и конструктивные особенности, уровень быстродействия. Самое забавное, что единого мнения по всем перечисленным вопросам до сих пор нет. Получается, как в том старинном рассказе про Ленина - каждый из героев представляет его по-разному, хоть никогда и не видел :).

Коллегам с сайта VR-Zone удалось откопать в недрах китайского форума PC Online.com.cn фотографии видеокарты, похожей на эталонную версию G80.

Прежде всего, поражают размеры (280 х 127 х 42 мм), хотя после знакомства с GeForce 7950 GX2 многому перестаёшь удивляться. Если фанаты ATI поклоняются Красному Кулеру, то фанаты NVIDIA должны поклоняться Чёрному Буме.., простите, Кулеру :). Обратите внимание на наличие двух 6-штырьковых разъёмов питания, которые расположены вдоль длинной стороны печатной платы.

Весьма неожиданно на следующем снимке возникают штуцеры для подключения системы водяного охлаждения. Неужели штатный кулер G80 работает только в составе водяной системы охлаждения? Или пользователь получает водоблок в качестве "бесплатного бонуса"? Пока судить об этом рано, но задуматься есть о чём. Не будем забывать, что видеокарта G80 может потреблять до 175 Вт энергии, и охлаждение должно быть не менее серьёзным.

Кстати, слухи о возможности использования такой видеокартой внешнего блока питания могут оправдаться. Во всяком случае, на панели портов ввода-вывода у эталонной карты G80 некий таинственный разъём имеется.

Остаётся ждать дополнительных подробностей и комментариев...

post-1-1159806717_thumb.jpg

post-1-1159806730_thumb.jpg

post-1-1159806745_thumb.jpg

post-1-1159806754_thumb.jpg

Опубликовано

Вполне естественно, что дорвавшись до документации по видеокартам на базе чипа G80, коллеги с сайта DailyTech не смогли ограничиться публикацией только одной новости соответствующей тематики. Выдавать информацию об очередных флагманах NVIDIA нужно "по чайной ложке", чтобы у изголодавшейся публики не появились признаки перенасыщения. Впрочем, в данном случае уместно было бы говорить о тепловом ударе или обмороке от знакомства со счетами за электричество laughing.gif.

В общем, так указанный американский сайт и поступил. Сегодня он поведал о характеристиках видеокарт GeForce 8800 GTX и GeForce 8800 GTS, которые наконец обрели чёткие очертания - анонс соответствующих продуктов намечен на вторую неделю ноября. Кстати, доступность видеокарт в рознице, по уже сложившейся хорошей традиции, будет незамедлительной: утром анонс - вечером видеокарты, или наоборот.

Итак, начнём с флагмана по имени GeForce 8800 GTX:

Частота видеочипа 575 МГц. Что характерно, 128 унифицированных шейдерных блоков будут работать на частоте 1350 МГц. Как видите, стратегия дифференцированного назначения тактовых частот для разных функциональных блоков внутри видеочипа продолжает работать.

Частота памяти 1800 МГц DDR. Самое забавное, что вместо вполне естественной для нынешнего сезона GDDR-4 мы увидим на GeForce 8800 GTX память типа GDDR-3. По крайней мере, в этом уверены американские коллеги.

Ответ на вопрос "почему не GDDR-4?" даёт описание объёма памяти GeForce 8800 GTX - видеокарта будет иметь 768 Мб памяти. То есть, к обычным 512 Мб добавлены ещё 256 Мб - скорее всего, для нужд обработки физических эффектов или прочих специфических задач. Если бы GeForce 8800 GTX использовала память GDDR-4 такого объёма, цена получилась бы не самой привлекательной.

Шина памяти тоже имеет необычную разрядность - 384 бит. То есть, к обычным 256 битам добавлены ещё 128 бит. Это объясняет П-образное размещение микросхем памяти вокруг видеочипа на графической карте GeForce 8800 GTX.

Наконец, пара скоростных характеристик: память обеспечивает пропускную способность 86 Гбит/с, видеочип заполняет сцену со скоростью 38.4 млрд. пикселей в секунду.

Вторая видеокарта семейства по имени GeForce 8800 GTS отличается более скромными характеристиками:

Частота чипа 500 МГц.

96 унифицированных шейдерных блоков, работающих на частоте 1200 МГц.

Частота памяти 1800 МГц DDR.

640 Мб памяти типа GDDR-3 (512 + 128).

320-битная шина памяти (256 + 64).

Пропускная способность памяти 64 Гбит/с.

Остаётся добавить, что обе видеокарты будут поддерживать DirectX 10 и Shader Model 4.0, а также Dual-Link DVI, HDCP, VIVO и HDTV. О требованиях по мощности блока питания для этих видеокарт мы уже сегодня рассказывали.

Вторая новость с сайта DailyTech гласит о том, что видеокарты на базе чипа G80 будут поддерживать ускорение "физики" на аппаратном уровне. В рамках технологии, называемой Quantum Effects (название может быть изменено в окончательном варианте), подразумевается использование части унифицированных шейдерных блоков видеочипа G80 для расчёта физических эффектов. Собственно говоря, это подтверждает озвученные ранее данные об особенностях работы G80 с "физическими" эффектами.

Можно предположить, что те самые "дополнительные" мегабайты памяти и "кусочки" шины памяти нужны G80 как раз для работы с "физикой". Впрочем, при отсутствии явно выраженной "физической нагрузки" они вряд ли будут простаивать без дела или как-то отделяться от остальных ресурсов видеокарты.

Следует отметить, что "физическая" технология от NVIDIA может работать и без SLI, на одиночной видеокарте. NVIDIA даёт понять, что Quantum будет конкурировать с AGEIA PhysX, но о разработчике "своего" физического движка скромно умалчивает. Впрочем, угадать его имя не так сложно - очевидно, это Havok, ибо это основная конкурирующая с AGEIA PhysX "физическая" платформа.

  • 2 месяца спустя...
Опубликовано

Тайваньские источники уже сообщали, что в первом квартале 2007 года компания NVIDIA представит два новых видеочипа G84 и G86, открывающие доступ к поддержке DirectX 10 тем пользователям, которые располагают суммой не более $300 на покупку видеокарты. Эти сроки удачно перекликались с озвученной представителями NVIDIA информацией о планах по анонсу не менее девяти графических решений семейства G8x.

Новые данные о чипе G84 опубликовал сегодня британский сайт The Inquirer. Данных о технических характеристиках пока нет, но коллеги уверены, что G84 станет производной формой G80 с меньшим количеством функциональных блоков, и это вполне закономерно.

Видеокарты на базе чипа G84 будут поддерживать DirectX 10, их дебют намечен на конец марта или начало апреля. Как всегда, проходящая в марте выставка CeBIT наверняка станет местом демонстрации образцов видеокарт на базе G84. Коллеги утверждают, что AMD к тому времени не будет иметь конкурирующих с G84 графических решений в данной ценовой категории. По последним данным, AMD может выпустить в конце февраля лишь флагманские продукты на базе чипа R600. Впрочем, конкуренты у G84 рано или поздно появятся, и это наверняка случится в первой половине 2007 года.

Стоимость видеокарт на базе чипа G84 должна уложиться в диапазон от $199 до $249. Обычно в этом сегменте производители предлагают продукты, обладающие достаточно удачным сочетанием цены и быстродействия. Если G84 не станет исключением, её ждёт феноменальный успех, так как конкурирующих решений с поддержкой DirectX 10 в этой ценовой нише на тот момент не окажется. К концу 2007 года AMD и NVIDIA должны представить полный спектр графических решений с поддержкой DirectX 10, и лишь самые нетерпеливые будут охотиться за ранними видеокартами только ради совместимости с этим API.

  • 1 месяц спустя...
Опубликовано

Интернет-сайт Nordic Hardware со ссылкой на китайский ресурс Beareyes.com опубликовал информацию о приблизительных ценах и спецификациях видеокарт серий GeForce 8600 и GeForce 8300. Сообщается, что уже даже якобы выпущены образцы новых видеокарт и предлагается несколько фотографий новых плат. 100% гарантий правдивости опубликованной информации нет, поэтому можно к ней относится лишь как к очередному слуху.

Продукты серии GeForce 8600 будут построены на базе 80-нм чипа G84 и иметь шину общения памяти с видеочипом разрядностью 256 бит. Число транзисторов G84, как ожидается, составит 300 млн. Видеокарты GeForce 8600 Ultra будут иметь 64 потоковых процессора, т.е. ровно в два раза меньше, чем GeForce 8800 GTX. Рекомендованные частоты ядра и памяти составят 500 и 700 (1400) МГц соответственно. GeForce 8600 GT будут иметь 48 потоковых процессоров, а частоты составят 350/600 (1200) МГц. Платы с индексом GT будут оснащаться памятью емкостью 128 или 256 Мб, а Ultra – 256 или 512 Мб. Что касается цен, то ожидается, что для GeForce 8600 Ultra они составят не более $179, а для GeForce 8600 GT - $149.

Предполагается, что видеокарты серии GeForce 8300 будут построены на 80-нм чипе G86 с числом транзисторов более 170 млн. Интерфейс памяти здесь уже 128-битный. Количество потоковых процессоров "урезано" в два раза по сравнению с платами серии GeForce 8600 и составляет 32 для 8300 GT, 24 для 8300 GS. Частоты ядра/памяти составят 500/1200 МГц для версии GT и 500/1000 МГц для GeForce 8300 GS. Соответственно, и цены значительно ниже: если верить источнику, за GeForce 8300 GT придется выложить в зависимости от объема памяти $89-99, а за 8300 GS – $69-79.

Nordic Hardware также утверждает, что будет выпущена "облегченная" версия GeForce 8800 GTS. Единственным отличием "урезанной" версии будет вдвое меньший объем памяти, который составит 320 Мб. А все остальное останется как и у 8800 GTS – 96 потоковых процессоров, частоты 500/1600 МГц и 320-разрядный интерфейс памяти. При этом цена будет снижена на $100 и составит около $299.

post-1-1168891743_thumb.jpg

post-1-1168891763_thumb.jpg

Опубликовано

Продолжают появляться новые данные по поводу будущих графических процессоров NVIDIA восьмой серии для среднего ценового сегмента - GeForce 8600 (G84). Как сообщает источник, информация об этих устройствах, появившаяся в Сети неделю назад, не совсем верна.

Предполагается, что G84 всё же будет иметь 128-битный интерфейс памяти, а не 256-битный. Это вполне соответствует устоявшейся традиции NVIDIA по сохранению дизайна PCB для GeForce x600 (и недавнее фото GeForce 8600 подтверждает сей факт).

По версии VR-Zone, будет две версии GeForce 8600 - 8600GT и 8600GS, для которых номинальные частоты ядра и памяти будут составлять 650/1800 МГц и 550/1400 МГц соответственно. Оба GPU будут включать 64 унифицированных шейдерных процессора.

Ещё раз напомним, что информация получена от неофициальных источников, а потому мы не можем ручаться по поводу её достоверности.

Опубликовано

Наши коллеги, ссылаясь на близких к истокам информаторов, сообщили некоторые детали о наследии графического процессора GeForce 8800 GTX, чипе GeForce 8900 GTX (G81), который nVidia планирует производить на заводах TSMC сразу по техпроцессу 65 нм.

Переход на 65-нм производство, как сообщает источник, связан с достаточно низким выходом 80-нм чипов с одной кремниевой пластины, что в общем-то выглядит весьма странно. "Качественный" выход 80-нм должен быть больше, так как производство является более простым. С другой стороны, техпроцесс 65 нм предоставляет большие цифры "количественного" выхода. Иными словами, вероятность появления процессора с заложенными характеристиками хотя и меньше, но число этих чипов больше. Следовательно, в абсолютных показателях конечное число необходимых процессоров может оказаться по крайней мере таким же, скорее всего, даже больше, при лучших заложенных характеристиках.

Коллеги сообщат, что чипы семейства GeForce 8900 можно ожидать год спустя после появления GeForce 8800. То есть предположительно в ноябре этого года. Данное решение будет обладать лучшими частотными характеристиками, поддерживать SLI 2.0 и, может быть, что-нибудь новое, о чем пока не появлялось известий. GeForce 8900 придется столкнуться с Radeon 2900, который, мы думаем, появятся примерно в этот же период.

Опубликовано

Если вы хотите присоседится к числу счастливых обладателей видеокарт, поддерживающих DirectX 10, продвигаемых вместе с перспективной Windows Vista, но не хотели отдавать по той или иной причине немалые деньги за GeForce 8800 GTX или одно из будущих видеорешений на базе ATI R600, тогда Вы наверняка обрадуетесь, услышав, что NVIDIA готовится анонсировать более дешевые GeForce 8600 Ultra и 8600 GT. Стоимость для 8600 GT приблизительно будет находиться в пределах $150, а за версию Ultra потребуют $180. Это довольно дешево, учитывая тот факт, что 8800 GTX обойдется Вам около $600 на момент анонса младших моделей. Ну а такая ценовая политика, несомненно, положительно скажется на продажах видеокарт на базе GeForce 8600.

<br>

<IMG alt='NVIDIA GeForce 8600 - новые подробности' alt="NVIDIA GeForce 8600 - новые подробности" src="http://techlabs.by/img/img/95273.jpg">

<br>

Краткие технические зарактеристики:

<TABLE align=center border=1>

<TBODY>

<TR>

<TD bgColor=#b0b0b0>

<P align=center>Видеокарта</P></TD>

<TD bgColor=#b0b0b0>

<P align=center>GeForce 8600 Ultra </P></TD>

<TD bgColor=#b0b0b0>

<P align=center>GeForce 8600 GT </P></TD></TR>

<TR>

<TD>

<P align=center>Техпроцесс изготовления </P></TD>

<TD colSpan=2>

<P align=center>80 нанометров </P></TD></TR>

<TR bgColor=#dedede>

<TD>

<P align=center>Количество транзисторов </P></TD>

<TD colSpan=2>

<P align=center> 300 миллионов</P></TD></TR>

<TR>

<TD>

<P align=center>Частота ядра </P></TD>

<TD>

<P align=center>500 МГц </P></TD>

<TD>

<P align=center>350 МГц</P></TD></TR>

<TR bgColor=#dedede>

<TD>

<P align=center>Частота памяти </P></TD>

<TD>

<P align=center>1400 МГц</P></TD>

<TD>

<P align=center>1200 МГц</P></TD></TR>

<TR>

<TD>

<P align=center>Разрядность шины </P></TD>

<TD colSpan=2>

<P align=center>256 бит</P></TD></TR>

<TR bgColor=#dedede>

<TD>

<P align=center>Используемые объемы памяти </P></TD>

<TD>

<P align=center>256/512 MB</P></TD>

<TD>

<P align=center>128/256 MB</P></TD></TR>

<TR>

<TD>

<P align=center>Примерная стоимость </P></TD>

<TD>

<P align=center>$180 </P></TD>

<TD>

<P align=center>$150 </P></TD></TR></TBODY></TABLE>

Как сообщает NVIDIA, запуск данной линейки видеокарт назначен на начало марта. И это не удивительно, так как это событие должно немного ослабить интерес общественности, связанный с анонсом чипа ATI R600.

  • 2 недели спустя...
Опубликовано

Как увеличить продажи уже порядком устаревшего решения? Правильно, переименовать его во что-нибудь новое! Именно этой тактикой пользовалась до недавнего времени в отношении чипсетов и видеокарт компания AMD. Но сегодня стало известно, что к подобному трюку решила прибегнуть и NVIDIA, переименовав свой хитовый чипсет GeForce 6100 в GeForce 7050. Параллельно используемый вместе с GeForce 6100 южный мост nForce 430 был переименован в nForce 630a. Причины такой пертурбации вполне ясны – маркетинг, маркетинг и ещё раз маркетинг. В то время, как вовсю продаются карты GeForce 8800, продвигать 6-ое поколение графических чипов, пусть даже и в составе бюджетных материнских плат, становится всё сложнее.

GeForce 7050 обладает разъёмом sDVO для организации улучшенного вывода видео, зато технология PureVideo недоступна в текущих драйверах, тогда как все остальные видеокарты GeForce 7-ой серии поддерживают эту возможность. К счастью, почти все материнские платы на базе GeForce 7050 будут оснащены слотом PCI-E x16 для дальнейшего расширения дискретными видеокартами. Прочие характеристики плат также на месте: поддержка двухканальной памяти DDR2-533/667/800, слоты PCI-E x1 и PCI, 10 USB-портов, 4 SATA-разъёма, гигабитная сеть.

sucks000.gif

Опубликовано

Ресурс OCWorkbench опубликовал на своих страницах сводную таблицу готовящихся к выходу новых графических ускорителей NVIDIA GeForce на базе GPU G8x.

post-1-1171531041_thumb.jpg

Общим для всех новинок являются используемые при производстве графического процессора 80-нм технологические нормы. Как видим, с выходом семейства GeForce 89хх NVIDIA вернется к практике выпуска двухпроцессорных ускорителей. Напомним, в предыдущем поколении таковым являлся GeForce 7950GX2.

Впервые в продуктах компании появится поддержка памяти типа GDDR4, на сегодня являющейся эксклюзивом ATI. Это позволит NVIDIA поднять предельную тактовую частоту памяти с нынешних 1800 МГц до 2200 МГц.

Ни о каких существенных изменениях архитектуры в семействе GeForce 89хх по сравнению с GeForce 8800 речи не идёт. Мы наблюдаем лишь поднятие частот флагманских моделей и диверсификацию остальных ускорителей по частотам работы, шине доступа к памяти и её объёму.

GeForce 8600/8300 будут иметь 128-битный доступ к памяти. 64-битный останется уделом самых дешевых видеокарт GeForce 8100.

Следует отметить, что с выходом новых флагманских ускорителей подешевеют ныне выпускаемые GeForce 8800 GTX/GTS. Они будут стоить, соответственно, 449 и 399 долларов. К сожалению, дат выхода новых продуктов NVIDIA источник не приводит

Опубликовано

Не успели мы разобраться толком с картами на базе R600, как стало известно, что в NVIDIA всё время после релиза GeForce 8800 не баклуши били, а разрабатывали очередно поколение ускорителей. Как и можно было предположить, имя серии будет включать цифру 7900. На данный момент известны четыре карты из данной серии - 8950 GTX, 8900 GTX, 8950 GX2 и 8900 GTS. GeForce 8950 GX2, как и 7950 GX2 – это сдвоенная карта, состоящая из двух печатных плат и двух графических чипов (переведённых на 80 нм техпроцесс). Ядро каждой из плат будет работать на частоте 550 МГц, с 512 MB 2 ГГц GDDR4-памяти графический процессор взаимодействует по 256-битному интерфейсу. Как можно уже догадаться, каждый чип имеет по 96 шейдерных блока. Рекомендуемая цена для монстра - $600. GeForce 8900 GTX (примерно $550) ещё выше поднимет планку частот – до 700/2200 МГц (ядро/память), видеопамять, как и у GeForce 8950 GX2, набрана GDDR4-чипами, но интерфейс (384 бита) и объём (768 MB) повторяют характеристики GeForce 8800 GTX.

Новый "суб-флагман" GeForce 8900 GTS будет отличаться от топовой карты сниженными до 600/2000 МГц частотами, отключенными 32 пиксельными блоками и 640 MB 320-битной GDDR4-памяти. Стоимость карты составит $500, в то же время GeForce 8800 GTS сместится в сегмент $400, а 8800 GTX - $450. Осталось назвать последнюю карту в колоде NVIDIA – GeForce 8800 GT. Новый постфикс означает применение 512 MB GDDR3-памяти на шине 256 бит, 96 шейдерных блоков в чипе и частоты 550/1600 Мгц. При цене в $250 эта карта должна стать фаворитом среднего ценового сегмента. Очевидно, что весь этот набор карт призван противостоять выходящим в апреле многочисленным вариациями Radeon X2900.

  • 2 недели спустя...
Опубликовано

Как стало известно, планы компании NVIDIA в отношении развития архитектуры G80 несколько изменились. Вместо ожидаемого G81 NVIDIA сделает рывок сразу к чипу G90, уменьшив размеры технологического процессор до 65 нанометров вместо нынешних 90 нм, используя мощности тайваньских заводов TSMC. При этом двухпроцессорная видеокарта GeForce 7950 GX2 выйдет на "старом" чипе G80. Новое же поколение графических процессоров будет способно достигать более высоких частот, а также работать с памятью типа GDDR4. По всей видимости, в компании решили, что более плавный переход к 80 нм не решит проблемы невозможности наращивания частот свыше 700 МГц.

Переход же с 90 нм к 65 нм – это не простое уменьшение шага литографических процессов, и требует гораздо более серьезного переоборудования технической производственной базы – мы могли быть очевидцами этого сложного процесса у компании AMD. Правда, самым первым 65 нм чипом у NVIDIA станет не G90, а G78. Вместе с уменьшением технологического процесса, вероятно, станет возможным размещение на чипе 512-битного контроллера памяти, тогда G90 сможет на равных соревноваться с R600, который, как известно, поддерживает 512-битную GDDR4-память.

Опубликовано

На днях компания NVIDIA анонсировала выход нового пакета драйверов Forceware 101.41 для операционной системы Microsoft Windows Vista. Новый пакет рассчитан на графические ускорители семейств GeForce 6, 7 и 8, но не поддерживает мобильные графические чипы линейки GeForce Go. Кроме того в пакет включена поддержка режимов SLI для видеокарт серий GeForce 6 и 7 и качественная реализация работы GeForce 7950 GX2 (теперь оба графических процессора полностью функциональны). Однако, не вышеперечисленные достоинства привлекли внимание коллег с сингапурского сайта VR Zone. Их пытливые глаза отыскали несколько замечательных строк в перечне поддерживаемых графических чипов:

post-1-1173079205_thumb.jpg

Очевидно, что в будущем компания планирует выпустить на рынок версию графического ускорителя с более высокими частотами под названием GeForce 8800 Ultra и значительно более дешевый GeForce 8400GS.

Опубликовано

Недавно мы узнали, что анонс видеокарт семейства GeForce 8600 состоится 17 апреля, а также познакомились с ориентировочными характеристиками этих видеокарт. Коллеги с сайта HKE PC подвергли эти характеристики уточнению, а также опубликовали другие интересные подробности о графических решениях на базе 80 нм чипов G84 и G86.

Итак, начнём с того, что поддержку HDMI и HDCP первая ревизия видеокарт на базе чипов G84 и G86 обеспечивать не будет, позднее такая функция появится. Такая модернизация будет проведена ради лучшего соответствия конкурентной обстановке: видеокарты на базе чипов RV630 и RV610 будут поддерживать HDMI, причём специальный разъём и транзитный звуковой вход им для этого не понадобятся.

Попутно мы узнаём, что видеокарты GeForce 8500 GT, GeForce 8400 GS и GeForce 8300 GS будут основаны на чипе G86, однако сроки выхода двух последних пока не определены. Площадь видеочипа G86 составит 122 кв.мм, более крупный и производительный чип G84 будет иметь площадь 160 кв.мм. Оба видеочипа будут производиться по 80 нм техпроцессу на фабриках TSMC.

Частотные характеристики видеокарт на базе чипа G84 гонконгские коллеги корректируют в сторону снижения:

GeForce 8600 GTS -> 675/2000 МГц, 128-битная шина, 256 Мб памяти типа GDDR-3;

GeForce 8600 GT -> 420/1400 МГц, 128-битная шина, 256 Мб памяти типа GDDR-3.

Ранее считалось, что видеочип G84 будет работать на частотах 600-700 МГц. Об уровне быстродействия видеокарт серии GeForce 8600 сообщается следующее: GeForce 8600 GTS будет превосходить GeForce 7900 GT, а GeForce 8600 GT будет быстрее GeForce 7600 GT. Если первое сравнение радует, то второе звучит вполне предсказуемо. Что касается GeForce 8500 GT, то она будет быстрее GeForce 7600 GS.

  • 2 недели спустя...
Опубликовано

Внешность и основные технические характеристики видеокарт GeForce 8600 GTS и GeForce 8600 GT были нами недавно изучены, мы хорошо представляем себе рекомендованные производителем цены и сроки поставок этих видеокарт. Не хватает лишь внятной информации о быстродействии новинок, ибо высказывания типа "GeForce 8600 GTS будет быстрее GeForce 7900 GT" любопытство удовлетворяют плохо, хотя надежду на встречу с "прекрасным, быстрым и недорогим" вселяют.

Коллеги с сайта VR-Zone решили устранить этот пробел, опубликовав данные о результатах тестирования видеокарт GeForce 8600 GTS и GeForce 8600 GT в составе уже знакомой вам системы на базе двухъядерного процессора Core 2 Extreme X6800 (2.93 ГГц). Результаты первых бенчмарков таковы:

GeForce 8600 GTS, 3DMark'06, 1280x1024 -> 57xx "попугаев";

GeForce 8600 GT, 3DMark'06, 1280x1024 -> 47xx "попугаев".

Заметим, что GeForce 8600 GTS слегка превосходит в данном тесте GeForce 7950 GT, а GeForce 8600 GT оказывается быстрее GeForce 7900 GS. Очень чёткое с маркетинговой точки зрения замещение. Похоже, что ненавидимая многими 128-битная шина видеочипа G84 пагубного влияния на быстродействие не оказывает, и хорошую "архитектурную наследственность G80" испортить не может.

Напомним основные известные на данный час характеристики видеокарт на основе чипа G84, благо соответствующая информация вчера появилась на страницах сайта DailyTech.

GeForce 8600 GTS -> частоты 675/2000 МГц, 256/512 Мб памяти типа GDDR-3 со временем выборки 1.0-1.1 нс, 128-битная шина, восьмислойный дизайн печатной платы, TDP=71 Вт, разъём дополнительного питания, габаритные размеры платы 111 х 183 мм, рекомендованная розничная цена $199-249;

post-1-1173970163_thumb.jpg

GeForce 8600 GT -> частоты 540/1400 МГц, 128/256 Мб памяти типа GDDR-3 со временем выборки 1.4 нс, 128-битная шина, шестислойный дизайн печатной платы, TDP=43 Вт, габаритные размеры платы 111 х 175 мм, рекомендованная розничная цена $149-179.

post-1-1173970185_thumb.jpg

Как уже не раз отмечалось, видеочип G84 текущей ревизии не обладает врождённой поддержкой HDCP, однако производители видеокарт серии GeForce 8600 могут устанавливать специальные микросхемы, чтобы реализовать поддержку HDCP. Поддержкой HDMI видеочип G84 тоже не обладает, но это не помешает производителям видеокарт приспособить для соответствующих нужд один из выходов DVI.

Что касается подвергнутого сомнению разгонного потенциала видеокарт GeForce 8600 GTS, то имеющиеся у нас данные позволяют реабилитировать 80 нм видеочип G84 в глазах оверклокеров. Он способен разгоняться без модификации системы охлаждения до частот порядка 800 МГц, а с более мощным охлаждением частота может быть ещё выше. Естественно, работающая в близости от предела своих возможностей память типа GDDR-3 столь радостных перспектив разгона не разделяет. Впрочем, видеокарты GeForce 8600 GTS могут оснащаться и памятью типа GDDR-4, и вопрос их появления лежит преимущественно в экономической плоскости, а не в технической.

  • 9 месяцев спустя...
Опубликовано

GeForce 9600 GT (D9P) придёт на смену GeForce 8600 GTS в середине февраля будущего года. По поводу анонса флагманского графического решения D9E вчерашние источники утверждали, что оно появится позднее, хотя ранее нам приходилось неоднократно слышать, что этот двухчиповый продукт будет представлен в феврале.

Сегодня сайт ExpReview выступил с заявлением о том, что флагманский двухчиповый продукт NVIDIA по имени GeForce 9800 GX2 (D9E) будет представлен 19 февраля будущего года. Таким образом, тянуть до марта NVIDIA не станет, хотя обычно анонсы новинок компания старается приурочить к проходящей в середине месяца выставке CeBIT. Возможно, это намёк на опасения со стороны NVIDIA по поводу высокой производительности Radeon HD 3870 X2 (R680) - двухчипового решения от AMD, которое выходит в конце января.

О характеристиках GeForce 9800 GX2 коллеги ничего не сообщают. Упоминается разве что двухчиповый дизайн с внутренним интерфейсом для сообщения между видеочипами, и наличие одного внешнего разъёма для подключения мостика SLI. Таким образом, связка из двух видеокарт GeForce 9800 GX2 обеспечит функционирование четырёх видеочипов в одной системе. Для питания видеокарты будут использоваться один шестиштырьковый и один восьмиштырьковый разъёмы.

Опубликовано

Как и предсказывалось, для того, чтобы сбыть остатки графических процессоров G80, выпускающихся уже более года по 90-нм техпроцессу, NVIDIA выпустит новое семейство видеокарт на их основе.

В настоящее время компанией уже выпущены два ускорителя, использующих 65-нм ядро G92 (GeForce 8800 GT и GeForce 8800 GTS 512MB), имеющих куда более привлекательное соотношение производительности и стоимости, нежели продукты на базе G80 (GeForce 8800 GTS 320/640 MB, GeForce 8800 GTX/Ultra).

Коллеги с Hardspell первыми получили в свои руки инженерный образец GeForce 8800 GS, карты ориентированной на рынок OEM. Источник утверждает, что карта использует чип G92, но спецификации указывают на G80.

Такой ускоритель оснащен 384 МБ видеопамяти с 192-битным доступом к ней. Сообщается о наличии 96 шейдерных процессоров.

Трудно сказать, верно ли отображает программа GPU-Z частоты новинки, но, по его данным, частоты GPU / шейдерного блока / памяти составляют 575 / 1438 / 1700 МГц.

Привлекательной покупкой такие карты сделает их цена , чей рекомендуемый NVIDIA уровень составит 149-179 долларов.

Источник успел протестировать карту в 3DMark 06. При настройках по умолчанию и с использованием процессора Core 2 Quad Q6600 новинка показала результат 9540 баллов.

  • 3 месяца спустя...
Опубликовано

Компания NVIDIA уже давно говорит о преимуществе вычислительной мощи своих видеочипов над центральными процессорами Intel, но лишь недавно эти заявления стали подкрепляться хотя бы какими-то практическими примерами. Как известно, для реализации потенциала чипов NVIDIA нужно программное обеспечение, адаптированное под особенности архитектуры CUDA, и программная индустрия отличается большой инертностью.

Однако, если верить публикации сайта PC Watch, дело постепенно сдвигается с мёртвой точки. Представители NVIDIA недавно выступили с презентацией, в ходе которой демонстрировались возможности программы RapiHD от Elemental Technologies, использующей видеочипы NVIDIA для преобразования видеофайлов. В качестве примера было рассмотрено преобразования файла MPEG-2 с разрешением 1280 х 720 в файл MPEG-4 с разрешением 320 х 240. Центральному процессору на преобразование этого ролика продолжительностью 110 секунд потребовалось около 45 секунд, а видеокарта NVIDIA справилась с работой за 15 секунд.

post-1-1208411825_thumb.jpg

Если же говорить о преобразовании ролика продолжительностью около двух часов, то процессор Core 2 Duo с частотой 1.66 ГГц выполняет эту работу за 7 часов 35 минут, процессор Core 2 Extreme с четырьмя ядрами и частотой 3.0 ГГц выполняет эту работу за 4 часа 53 минуты. Мобильной видеокарте GeForce 8800M с 64 потоковыми процессорами требуется 56 минуты, а настольной GeForce 8800 GTS 512 Мб со 128 потоковыми процессорами - всего 23 минуты. Получается, что она быстрее Core 2 Extreme QX9650 (3.0 ГГц) более чем в 12 раз.

Остаётся признать, что разработчики программного обеспечения постепенно берут на вооружение средства, позволяющие использовать потенциал видеокарт для выполнения не совсем типичных для них задач.

  • 2 месяца спустя...
Опубликовано

С приближением анонса новых графических ускорителей из серии GeForce GTX 200 компании NVIDIA становится всё труднее обеспечивать прежний уровень секретности. С помощью немецких сетевых ресурсов Hardware-Infos и Gamezoom, а также британского The Inquirer и турецкого Donanimhaber.com попытаемся собрать все имеющиеся на текущий момент сведения о спецификациях видеокарт GeForce GTX 280/260 и дополнить самыми свежими данными, поступившими от близких к производству осведомителей. Кроме того, учтём информацию, распространённую на одном из последних мероприятий для прессы NVIDIA Editor Day.

Для удобства восприятия сведём все имеющиеся знания в одну таблицу. Туда же для сравнения добавим данные о GeForce 9800 GTX, 8800 Ultra и известные спецификации будущих продуктов на базе процессора RV770 от компании AMD, которые выйдут примерно в одно время с флагманскими решениями NVIDIA.

Наконец, перестали быть тайной точные рабочие частоты видеокарт GeForce GTX 280/260. Чтобы удержать в приемлемых рамках энергопотребление и тепловыделение 65-нм ядра G200, которое, по уточнённым сведениям, состоит из 1,4 млрд транзисторов, разработчикам пришлось ограничить его частоту на уровне 600 МГц. При этом потоковые конвейеры работают на 1300 МГц. Это совсем немного для современного графического процессора. Однако усиленный шейдерный домен G200 и возросшая эффективность унифицированной архитектуры второго поколения должны обеспечить новым видеокартам NVIDIA превосходство над нынешними "топовыми" продуктами GeForce 9800 GTX/GX2 и уверенность в противостоянии с конкурирующей серией Radeon HD 4800. К тому же, "низкий старт" рабочих частот GeForce GTX 280/260 в будущем сослужит калифорнийской компании добрую службу, когда наступит время перехода на 55-нм нормы производства и масштабирования архитектуры G200.

Приведённые данные по теоретической производительности указывают на отставание видеокарты GeForce GTX 260 от 9800 GTX и устаревающей GeForce 8800 Ultra. По мнению немецких обозревателей, речь идёт об уровне быстродействия в самых простых арифметических задачах. В случае "тяжёлых" 3D-сцен, насыщенных сложными шейдерами, картина должна быть совсем другая. Что касается старшей модели GeForce GTX 280, полный состав потоковых конвейеров, текстурных процессоров (TMU) и блоков растеризации (ROP), а также большие частоты и 512-бит интерфейс памяти должны обеспечить ей лидерство, как в простых, так и сложных сценах.

Кроме того, нельзя не отметить впечатляющую текстурную производительность видеочипа G200. В случае GeForce GTX 280 скорость выборки текстурных данных выросла до 48 ГТ/с, что ещё больше усилило отрыв от продуктов из красно-зелёного лагеря. Напомним, что разработчики из AMD исправили один из главных недостатков прежней архитектуры, увеличив число текстурных процессоров ядра RV770 ровно в два раза. Однако данных мер оказалось недостаточно для достижения текстурного филлрейта уровня GeForce 9800 GTX или 8800 Ultra. Но не следует забывать, что поведение игровых ускорителей в синтетических тестах и реальных 3D-приложениях может отличаться. Дождёмся первых итогов тестирования в современных играх, которые покажут истинную расстановку сил в условиях, приближённых к действительности.

Немецкие и британские источники раскрыли тему рекомендованной стоимости новых ускорителей. Старшая модель GeForce GTX 280 будет оценена в $600 или даже выше. Не исключено, что в первое время после выхода на волне ажиотажного спроса могут быть побиты ценовые рекорды, принадлежащие флагману прежних лет GeForce 8800 Ultra. В свою очередь, ценовая политика графического подразделения AMD отличается большей гуманностью по отношению к геймерам-энтузиастам. Ускоритель Radeon HD 4870 с 1 Гб памяти GDDR5 будет стоить значительно меньше - в районе $350.

Надо полагать, позиционирование флагманских видеокарт AMD и NVIDIA в разные ценовые категории объяснятся тем, что Radeon HD 4870 и GeForce GTX 280 не являются прямыми конкурентами. Для противостояния с новым фаворитом NVIDIA объёдинённая компания готовит двухпроцессорный ускоритель Radeon HD 4870 X2, который приблизится к нему не только по скорости, но и по цене. Однако в любом случае будущие видеокарты из серии Radeon HD 4800 должны стоить дешевле конкурирующих решений, поскольку компания AMD планирует в дальнейшем придерживаться агрессивной ценовой политики, о чём неоднократно заявляла. Нет сомнений в том, что относительно недорогой 55-нм видеочип RV770 способен обеспечить лучшую манёвренность в ценовой войне, нежели 65-нм ядро G200, содержащее около 1,4 млрд транзисторов.

  • 10 месяцев спустя...
Опубликовано

Понемногу появляются новые данные о готовящемся к выходу новом флагмане компании NVIDIA — GeForce GT300. В нашем прошлом материале об этом GPU мы уже рассказали, что это будет принципиально новый ускоритель с 512 шейдерными вычислительными блоками, использующий парадигму MIMD (а не SIMD, как в GT200).

Уже это должно сделать видеоадаптеры на этом GPU более производительными и эффективными. Сейчас же в Сети появилась информация о памяти и интерфейсе доступа к ней.

По данным источника, в ускорителях на NVIDIA GT300 будет применяться быстрая GDDR5: 1024 или 2048 МБ, работающая на частоте 2000 МГц, со временем доступа 0,5 нс; доступ к которой будет осуществляться по шине шириной 512 разрядов.

Обеспечение видеокарты такой памятью позволит получить пропускную способность памяти (ПСП) в 256 ГБ/с. Для сравнения, в решении GTX 280 показатель ПСП равнялся 140,8 ГБ/с.

Ожидается, что маркетинговым именем этого мощного 3D-ускорителя будет GeForce GTX 380.

  • 1 месяц спустя...
Опубликовано

Резкое падение капитализации многих компаний и кредитный кризис открыли для многих игроков рынка возможности по приобретению некогда недоступных активов. Больше всего на слуху в последние месяцы банкротства и приобретения в автомобилестроении. Американский гигант начал процедуру банкротства, активно распродавая подразделения. Среди покупателей легендарных брендов оказались не только американские автодилеры или китайские инвесторы, но и производители автомобильных компонентов, а также один известный российский банк.

Одно из важнейших объединений компаний на компьютерном рынке произошло в 2006 году, когда AMD купила ATI. В этом году AMD выделила производственные мощности в состав совместного предприятия Globalfoundries, финансируемого преимущественно за счёт средств арабских инвесторов. Теперь уже мало кто вспомнит, что в 2006 году некоторые источники обсуждали возможность покупки NVIDIA компанией Intel или другими крупными инвесторами.

Как сообщает сайт Hexus со ссылкой на высокопоставленные источники в компьютерной промышленности, компания NVIDIA может проявлять интерес к покупке AMD - теперь уже объединённой с ATI и отделённой от своих производственных мощностей. Считается, что в далёком 2006 году одним из кандидатов на покупку ATI была как раз NVIDIA, но AMD её опередила. Теперь у NVIDIA появляется новый шанс поглотить своего основного конкурента на рынке дискретных графических решений.

Конечно, это пока лишь слухи, выросшие на благоприятной для слияний и поглощений почве. NVIDIA контролирует значительную часть рынка дискретной графики, поглощение AMD вызвало бы справедливый интерес со стороны американских антимонопольных органов. В принципе, уже в начале следующего года Intel обещает выпустить свои дискретные графические решения семейства Larrabee, поэтому переживать по поводу монополии NVIDIA не придётся в любом случае.

  • 4 месяца спустя...
Опубликовано

Сведения о том, что NVIDIA в ближайшие годы выпустит x86-совместимый процессор, появляются не впервые. Для такого намерения есть вполне логичное объяснение: производитель графических процессоров не может безучастно наблюдать, как AMD и Intel планомерно продвигаются к тому, чтобы объединить центральные и графические процессоры в одном продукте. По мнению аналитиков, уже в будущем году Intel может отобрать у NVIDIA значительную часть рынка графических решений (к слову сказать, соответствующая тенденция уже наметилась).

«Мы уверены, что NVIDIA может заняться x86-совместимыми CPU», — так оценивает ситуацию Дуг Фридман (Doug Freedman), аналитик из American Technology Research (ATR). По его словам, для NVIDIA это может стать вынужденным шагом, направленным на сохранение доходов от выпуска GPU и наборов системной логики.

Источник утверждает, что NVIDIA потихоньку нанимает на работу бывших сотрудников компании Transmeta, в свое время предложившей рынку x86-совместимые CPU собственной разработки. Не лишним будет вспомнить, что примерно год назад за 25 миллионов долларов NVIDIA купила право использовать все разработки Transmeta.

Возможным путем быстрого выхода на рынок x86-совместимых CPU для NVIDIA была бы покупка VIA Technologies, поскольку в активе последней есть соответствующие продукты. Кстати, последний был представлен буквально вчера — это серия процессоров для ноутбуков и моноблочных ПК VIA Nano 3000. Предпосылки для такого приобретения есть — не далее, как весной текущего года NVIDIA была названа в качестве покупателя части VIA Technologies. В то же время, наблюдатели называют более вероятным вариант с собственной разработкой.

Так или иначе, попробовать свои силы в новом направлении для NVIDIA было бы неплохо, поскольку, например, перспективы создания новых наборов системной логики для процессоров Intel пока остаются под вопросом. Как известно, из-за проблем с лицензированием NVIDIA была вынуждена приостановить разработку этих продуктов.

  • 2 года спустя...
  • 6 лет спустя...
  • 1 год спустя...
Опубликовано
Цитата

 

Фотореализм с «лучами Хуанга». Игра Nvidia Marbles выглядит даже более впечатляюще, чем свежее демо Unreal Engine 5

И работает на одной видеокарте

На днях Epic Games впервые показала возможности движка Unreal Engine 5 на примере демо Lumen in the Land of Nanite. Во время демонстрации демо воспроизводилось на консоли Sony PlayStation 5 в режиме реального времени.

Вчера мы узнали, что с этим же демо справится и ПК с видеокартой GeForce RTX 2070, хотя не уточнялось, в каком разрешении. Кроме того, во время вчерашней онлайн-конференции Nvidia показала своё видение графики следующего поколения. Marbles — так называется то, что вы можете увидеть на видео ниже.

Фактически Marbles можно назвать игрой, так как тут присутствует все необходимые элементы, и в это действительно можно играть. Правда, уровень всего один, но зато невероятно красивый.

Само собой, в Marbles активно используется трассировка лучей, а также сложная физика объектов. И работает это всё на одном графическом ускорителе. Правда, этот ускоритель — это Quadro RTX 8000. Это топовый профессиональный графический адаптер, оснащённый GPU TU102 в полной конфигурации, то есть с 4608 ядрами CUDA. У Nvidia нет ни одной игровой видеокарты с такой конфигурацией, так как у RTX 2080 Ti «лишь» 4352 ядра, а Titan RTX, которая также располагает 4608 ядрами, всё же не является игровым потребительским продуктом. К тому же у Quadro RTX 8000 имеется 48 ГБ памяти.

Впрочем, на подходе карты Ampere, так что, не исключено, что через два-три года мы действительно увидим игры с подобной графикой.

 

 

  • 3 месяца спустя...
Опубликовано
Цитата

 

Видеокарты GeForce RTX 3000 умеют загружать данные напрямую из SSD, минуя процессор. Это называется RTX IO. Но не всё так просто

Представленные вчера видеокарты Nvidia Ampere порадовали и абсолютной производительностью, и соотношением производительности к цене. Несмотря на то, что Nvidia до сих пор не раскрыла ряд характеристик новинок, об одной особенности, которая не попала в оригинальную новость, стоит поговорить отдельно.

20200901173551_large_large.jpg
 

aymH0kvUvV1Gd3Yb_large.jpg

 

cu4FZFji9BuxITrO_large.jpg
В основе RTX IO лежит DirectStorage API — набор инструментов в рамках DirectX 12, который Microsoft создавала для Xbox Series X, но сегодня представила и для ПК. В случае RTX IO Nvidia использует также преимущества архитектуры своих новых видеокарт, что должно увеличить производительность ввода-вывода вдвое, в том числе за счёт того, что на GPU будет возложена работа «десятков процессорных ядер». 

Правда, конкретная игра должна быть оптимизирована и для DirectStorage API, и для RTX IO, так что тут не всё так просто. Но технология, скорее всего, со временем получит обширное применение.

Также стоит отметить, что для её реализации нужно, чтобы в ПК был накопитель NVMe с интерфейсом PCIe 4.0, так как именно высокая скорость таких SSD и позволяет реализовать названные технологии.

 

 

  • 1 год спустя...
Опубликовано
Цитата

 

NVIDIA заявила, что 144-ядерный Grace Superchip вдвое быстрее пары актуальных Intel Xeon

Компания NVIDIA опубликовала свежие данные о производительности своего новейшего 144-ядерного серверного процессора Grace Superchip на архитектуре Arm. Во время презентации в конце марта NVIDIA сравнивала новинку с чипами AMD EPYC, а теперь поделилась сравнением с Intel Xeon, которое представляет несколько больший интерес.

NVIDIA_Grace_perf_01.jpg

  Всё дело в том, что в марте Grace Superchip сравнивали с серверными чипами AMD прошлого поколения — EPYC Rome — которым к моменту выхода решения NVIDIA в 2023 году будет уже четыре года. По словам NVIDIA, её решение в 1,5 раза быстрее пары 64-ядернымх EPYC 7742. Отсюда можно сделать вывод, что Grace Superchip будет соответствовать по производительности паре актуальных флагманов серии EPYC Milan. И даже это не так важно: к 2023 году у AMD выйдет EPYC Grace — ещё более мощные чипы на новой архитектуре и платформе.

Поэтому сравнение с актуальными Intel Xeon Ice Lake, а именно с парой 36-ядерных и 72-поточных моделей Xeon Platinum 8360Y, выглядит несколько более интересным. Хотя опять же в 2023 году в арсенале Intel будут многообещающие Xeon Sapphire Rapids. Тем не менее, здесь сравниваются ещё и решения с одинаковым количеством потоков — по 144 в системе Intel и NVIDIA.

sm.NVIDIA_Grace_perf_02.750.jpg

  NVIDIA заявляет, что её Grace Superchip вдвое производительнее системы на Intel, и при этом, что немаловажно, в 2,3 раза превосходит конкурента по энергоэффективности. Отметим, что на руку процессорам NVIDIA играет куда большая пропускная способность памяти, которая крайне важна для данного теста. В паре с Grace Superchip работала память LPDDR5X с общей пропускной способностью больше 1 Тбайт/с — система на Intel была оснащена лишь памятью DDR4.

 

 

  • 3 недели спустя...
Опубликовано
Цитата

 

Слухи приписывают старшей видеокарте NVIDIA семейства Ada Lovelace уровень TDP до 900 Вт

Ресурс VideoCardz к середине недели сосредоточился на слухах о характеристиках видеокарт NVIDIA семейства GeForce RTX 40 с архитектурой Ada Lovelace, которые распространяет известный под псевдонимом Kopite7kimi энтузиаст.

ada_01.png

Во-первых, он заявил, что NVIDIA может тестировать видеокарту на базе графического процессора AD102 в полной конфигурации, которой положено 48 Гбайт памяти типа GDDR6X, работающей на частоте 24 ГГц, два разъёма дополнительного питания с 16 контактами (12 + 4), а также уровень TDP до 900 Вт против 600 Вт у «обычной» GeForce RTX 4090 (обозначение предполагаемое).

Пойдёт ли такой монстр в серию – большой вопрос, но если он появится на рынке, то нельзя исключать, что в составе возрождённого семейства видеокарт TITAN. Попутно источником приводятся характеристики более доступных видеокарт на базе графических процессоров AD103 и AD104. Тестирование образцов ещё не началось, но ждать соответствующего момента осталось не так долго, как обещает источник.

 

 

×
×
  • Создать...