6 лет назад 18 апреля 2013 в 17:09 227

Тут вот совсем недавно вышла третья часть нашумевшего в свое время шутера Far Cry, о всех фишках которого вам рассказывал наш коллега Николай Барсуков в одном из предыдущих номеров. Многие заядлые геймеры уже успели изучить вдоль и поперек все злоключения главного героя (игнорируя побочные квесты, не иначе) и при первых упоминаниях о тропическом острове презрительно смотрят свысока на тех, кто только начал знакомиться с очередной частью.

Но я, как образцовый железячный маньяк, интересуюсь игровой индустрией исключительно с позиций человека, ищущего подходящий бенчмарк (смайл), а потому растягиваю удовольствие, запуская игрушку только при получении новых тестовых образцов. Такой вот я эстет, что поделать. Тем не менее игра действительно достойная, я бы даже поставил ее в один ряд с такими культовыми времяуничтожителями, как TES или Half-Life, поэтому обойти стороной факт ее выхода ну никак нельзя. А учитывая, что ко мне в руки как раз попал новый ускоритель от PNY на распоследнем чипе NVIDIA – GK104, я просто-таки обязан погонять его на максимальных настройках и широченном мониторе (который, кстати, ни для чего, кроме игрищ и кинца, не использую, слишком он, зараза, широкий).

Итак, сегодня у нас в меню GeForce GTX 660 Ti от PNY под референсным соусом… м-м, ну да вы поняли. Для охлаждения использована внушающих размеров турбина, которая не только закрывает собой всю плату, но еще и выдается вглубь системника сантиметров на пять-шесть. Несчастная карточка на фоне этого детища холодильной индустрии смотрится просто крошечной. Зато с такой СО плата выглядит не просто какой-то железкой, а вполне себе монолитным и законченным устройством.

К тому же такой подход позволяет занять ровно два слота и не требует наличия дополнительного места, как бывает в случае применения массивного радиатора и обычных вертушек. Мне почему-то чаще доставались для обзора карты с обычными вентиляторами, поэтому турбина напомнила мне об одной из первых систем охлаждения, которые ставились на безумно горячие «джифорсы» FX 58xx, благодаря которым за девайсами «зеленого» лагеря в свое время прочно закрепилось прозвище «печки» (см. RSS). Так как тепловыделение у них было просто космическое, то вентилятор тогда работал чуть ли не на максимальных оборотах, поэтому и шум был соответствующий.

Можно сказать спасибо уменьшению техпроцесса – видеокарты ныне не ревут со страшной силой, а тихо-мирно обдают холодным потоком умеренно горячие камни. За время тестирования скорость крыльчатки ни разу не превышала 30% от максимума, чем бы я ее ни нагружал, а температура не поднималась выше 30 °С поэтому запас для различных оверклокерских забав остается очень (тут должен был быть Caps Lock) солидный.

В автоматическом режиме управления кулером карту не слышно на фоне жесткого диска и тихоходной стодвадцатки, осмыслив данный факт, я начал проникаться симпатией к этой карточке. Попробовал еще ради праздного интереса выставить 80% от оборотов турбины и в общем-то сразу от данной затеи отказался по вполне понятным причинам (смайл), хотя температура чипа в простое при этом почти сравнялась с комнатной, хе-хе.

С конструктивом разобрались – несмотря на рефересный дизайн, карта хороша. Самое время расчехлять 3DMark и новенький Far Cry 3. Ставлю разрешение 2048 х 1152, самые высокие настройки графики, вижу густо забитые листвой джунгли и… в среднем 20, а в максимуме – 24 fps. Негусто, но играться вполне можно. Не забывайте, что 2048 х 1152 точек – это даже больше, чем Full HD, поэтому результаты вполне «съедобные».

Снижение разрешения до 1920 х 1080 пикс. дало ощутимую прибавку к скорости, среднее значение fps выросло до 26, максимальное составило 33 кдр/с. Ради любопытства запустил еще и Skyrim, где быстро стало понятно, что ниже 50 счетчик кадров вряд ли когда-нибудь опустится, поэтому следующими в очереди были синтетичесие тесты. 3DMark 11 любого вернет на землю своим комбинированным тестом, так что 2420 очков, выданные им GPU в режиме Extreme, не показались мне особенно удручающими, даже наоборот, на фоне конкуретнов это ого-го! Однако останавливаться на этом я, разумеется, не собирался, имея в наличии такой могучий охладитель.

Надеюсь, ни для кого не секрет, что нынче разработчики вынуждены очень оперативно менять частоты чипов в те моменты, когда вычислительная мощь не востребована. Причем касается это как центральных, так и графических процессоров, а также и частот, на которых трудится память. Делается все это ради понижения энергопотребления, и, надо отдать инженерам должное, работает данный подход очень эффективно, но при этом график, отражающий изменение частоты GPU во времени, напоминает кардиограмму припадочного больного (смайл). Хотя я, честно сказать, так и не понял, почему максимальное заявленное потребление карточки 175 Вт, при том что даже при 100% загрузке чипа и с разгоном я не получил потребления выше 105 Вт.

Наверное, запас «на дурака», хе-хе. Думаю, понятно, что в такой ситуации разгон сводится к повышению порога максимальной частоты карты. В стандартном режиме GTX 660 Ti технология NVIDIA GPU Boost предусматривает максимальную частоту ядра 980 МГц, а эффективная частота GDDR5 составляет 6 ГГц. Я постепенно поднял частоту ядра на 200 МГц, а частоту памяти на 300 МГц, поэтому в итоге частота GPU достигла 1180 МГц, а памяти – аж 6,6 ГГц (обожетымой!).

На подобное мое поведение карта реагировала на удивление флегматично, совершенно покорно принимая все издевательства и не выдавая при этом совершенно никаких глюков или сообщений – типа все так, как должно быть. Разве что температура при автоматической регулировке скорости турбины под нагрузкой поднялась до 60° С, на этом все изменения по сравнению с обычным режимом закончились.

Дальше гнать карту я как-то постеснялся, но результат и так впечатляет – видюха в таком режиме запросто обставляет своего старшего коллегу GTX 670 даже несмотря на урезанную шину памяти, и начинает потихоньку подбираться к недостижимой вершине в лице GTX 680 (речь, конечно, про одночиповые видеокарты). 3DMark 11 теперь показывает 2639 попугаев, а Far Cry 3 при 2048 х 1152 демонстрирует уже играбельные 24 fps в среднем и около 30 fps в максимуме. На этом обзор можно, в принципе, заканчивать, а результаты стоит признать блестящими.

После анонса GTX 680 и GTX 670 многие ждали логического продолжения в виде карты среднего ценового диапазона, коими как раз и стали видюхи GeForce GTX 660, но при всем этом производительность они показывают впечатляющую. Еще раз хочу обратить внимание на то, что тестовый образец имеет референсный дизайн и это упрощение не помешало ему показать себя с лучшей стороны – не понимаю, почему до сих пор многие продвинутые пользователи от одного упоминания о референсном дизайне начинают плеваться. Специально для них повторяю, в данном случае все не так плохо, чтобы не глядя отворачиваться от неплохой карточки.

В заключение советую вам посмотреть на тесты GTX 680 и GTX 660, затем сравнить их цену, а потом опять посмотреть на тесты и снова на цены. Выводы напрашиваются сами собой: если ради лишних 5-6 fps не жалко $200, то можно смело брать старшую модель, но, когда речь заходит об оптимальном соотношении»цена-качество», лично я, не задумываясь, отдал бы предпочтение сегодняшнему герою. Есть еще, конечно, «красный» угол ринга, поэтому всегда можно и «в ту степь» поглядеть, однако подобное сравнение лежит за рамками статьи – в другой раз как-нибудь, уж не обижайтесь. UP

  • Устройство: PNY GeForce GTX 660 Ti
  • Тип: видеокарта
  • Интерфейс: PCI Express 3.0 х16
  • Память: GDDR5, 2 Гбайт
  • Шина памяти: 192 бит
  • Выходы: 2 х DVI, HDMI, DisplayPort
  • Подробности: www.pny.com
  • Благодарность: устройство предоставлено компанией PNY (www.pny.com)
Никто не прокомментировал материал. Есть мысли?

Спасибо за обзор. Жаль без скринов и т..д. Но всё ровно круто. Ибо он единственный русский на весь инет на эту карточку!) Спасибо))))