Дмитрий собственно вопрос: почему такое предпочтение сборок видеокатр от ASUS? Есть ли какие-либо принципиальные аспекты выбора, ну например надёжность или заводской разгон?
я себе взял 660 и им доволен. впределах 7000. сменил gf9600gt который у меня простоял лет 5. и правда только в этом году стал испытывать в игра дискомфорт, а crysis 3 вообще не работал, типа dx11 требует аппаратно. поставил 660 проблемы все ушли все игры на максимуме играются даже crysis 3. не вижу смысла покупать карту дороже 10000р быстро устраревают все равно за ними не угнаться. правда из за смены видахи блок питания тоже пришлост сменить 600ватт мало оказалось поставил 1010w все работает ок. и я очень доволен.
мне в магазине говорили 500 ватт и у них работает!! а у меня 600 (cooler master) включается и сразу выключается… если всю переферию отключить(оптические приводы все usb устройства лишние и тд) то работает, но периферия тоже нужна. я поставил fsp на 1010ватт все отлично работает.
у меня два привода core i5 661. и еще usb устройства. мамка gigabyte. скорее всего по моему тесту bd-re много требует. поэтому и не хватает. питание по шине +12в не хватало. можно было поставить ватт 800 и нормально было. но лучше с запасом. еще периферии много.
Вот у меня к тебе вопросик как обладателю 660. Я себе недавно взял 660 ti от ASUS в надежде что потом поставлю вторую по SLI, только вот есть одна печалька — карточка «мусорит», в 3D играх появляются горизонтальные артефакты в виде полупрозрачных полос. Ковырял Инет — многие жалуются, но как я понял это проблемы именно с процом серии 660, а вернее в дровишками под него, в каждым новым обновлением, игр с таким «мусором» все меньше и именьше.
Так вот у тебя карточка «мусорит»?
было дело. по началу глючила. но я все исправил. причину за 2 дня нашел. и кстати в нете вычитал. там есть ответ на этот вопрос. дело даже не в дровах к ней. если даже самые новые скачать с сайта nvidia причина останется. правда я не знаю точно как у asus, у меня gigabyte. я просто с сайта производителя карты (не чипа nvidia, а именно карты gigabyte) скачал новый bios и обновил его, проблема исчезла. скорее всего у асус так же.
а причина в том что видаха глючит так как частоты проца отбражаются завышенно, и драйвер вылетает. или просто игру перезапускаешь и все ок, пока опять опять глючить не начнет.
так что обнови биос.
680 совсем не новая(анонсирована 24-03-2012) и уж тем более не топовая, топовая Titan (обзор: http://www.3dnews.ru/video/645661), хотя и вышла раньше 7ХХ серии. (про стоимость промолчу … )
Например результат по Battlefield 3 (DirectX 11):
680 — 50 fps
780 — 66 fps
Titan — 68 fps
Кто тебе сказал что не топовая?! ))) Что думаешь если новое поколение вышло, то предыдщие топовые уже не топовые?! Абсурд! Не мели ерунду! Конечно топовые! И 580 до сих пор еще топовой считается! Конечно все относительно, но это топ, во всяком случае пока еще!
Видимо обзоры других обозревателей здесь не принимаются, на да и пофиг… мне то что, просто народ меньше знать будет!
В нем заодно говорилось например, что в Battlefield 3 на 680 выдает 68 фпс минимум… потому что многое влияет на фпс.
Поздравляю с покупкой! Хороший выбор. У асусов очень тихий охлад (Direct CUII ).
Ну а что касается ускорения в рендеринге, то мой личный опыт показывает, что в большей степени снижается нагрузка на CPU, чем что-то там ускоряется.
По крайней мере, если рендерить в H.264 (Adobe Premiere Pro 5.5.2).
Верстать видео и РЕНДЕРИТЬ 3D модели — это разные вещи. У меня до аппа стояло 2 карточки 4890, так АутоДеск временами задумывался, хотя сейчас я взял себе 660ti в надежде что соединю их парой, но у них есть малоприятные баги которые при работе с 3D мягко говоря утомляют.
Так вот я могу с уверенностью сказать что РЕНДЕРИНГ 3D моделей на 2-х картах младших серий (соединенных по технологии AMD CrossFireX / NVIDIA SLI) тягает за уши на той же операции более старшую (и как правило гораздо дороже) карточку
А мне интересно почему Дмитрий сравнивает видеокарту с не вышедшей консолью и говорит про не довольствие ценой.
Компьютер всегда (если совсем не уходить далеко в прошлое) стоил дороже консолей.
Но и игры сейчас на ПК стоят в разы дешевле, в итоге мы имеем почти равную цену.
консоли всегда были и есть ущербными по своей природе, ведь перед разработчиками стояла раньше и стоит сейчас задача из разряда «надо сделать игровую платформу с розничной ценой $100-300» и вот как хотите так в это прокрустово ложе и втискивайтесь.
собсно по-этому мне не понятно не желание Дмитрия сделать обзор аркадных игровых платформ, ведь там всё было реально для игр, допустим в 80х нужно авторам для какой-то игры пара лишних слоев тайл-карт — не вопрос, добавляем их на плату, или позже в 90х нужно для более лучшей 3Д графики еще FPU/DSP для расчета векторов и пара текстурных чипов (TSP) для их отрисовки — тоже не вопрос, то есть всё делалось лишь бы игры в итоге выглядели и звучали так как задумали их авторы.
ну а в случае (всеми любимых) консолей то что не укладывалось в их возможности нахер вырезалось, в случае ПК где-то так же, то что выходило за рамки «среднестатистической конфигурации компа» шло под нож.
Дмитрий, может всё таки стоит сделать передачи про платформы сделанные для игр ? в смысле платформ, которые не редко делались именно для конкретных игр.
немножко разъясню последнюю фразу по поводу «платформ для игр».
что мы имеем в случае консолей или ПК:
разработчики думают — вот мы имеем такое железо (или типовую конвигурацию ПК), что мы такого крутого можем на нем сделать ?
в случае аркад 70х-90х:
— у нас есть идея сделать вот такую навороченную игру, какое железо нам надо сделать чтоб воплотить эти идеи в жизнь ?
Равная цена? Даже примерно их равной назвать нельзя. Консоль должна быть дешёвой, ибо она скоро устареет и её сменит консоль нового поколения. А так как консоль мало кто покупает, но всё таки берут, иначе как поиграть то, то деньги поднимают хотя бы на играх, хотя цены не космические. А вот с ПК дела обстоят чуток иначе. Железо не дорогое, и оно есть у всех практически. Игр много и даже очень, и игроки зажрались, перебирают харщами. По этому игры дешёвые. Если сравнивать цены, получается что консоль имеет дорогое оборудование внутри себя, но сама по себе стоит дёшего и игры не дорогие по сути. А комп дорогое удовольствие, ибо его используют не только для игр. А цена игр, разная встречается. Порой такая же как и консольная.
я ответил тебе выше. правд у меня не ti а просто. ti дорого да и существенных плюслв не нашел. а sli мне не нужен. поэтому я выбрал просмто 660 лешевле и кстати намного.
Есть все шансы, что ты прокололся с покупкой. Новое Поколение консолей, даже при учете, что оно слабее нынешних топовых ПК, это резкий скачек технологических возможностей в играх, а значит твоя карта может весьма быстро стать не нужным мусором из-за введения какого нибудь ДХ 12, акалоги которого будут на консолях, а на твоей видюшки нема.
А решается это проблема крайне просто. Покупается карточка которая держит DX12 (например) и соединяются через NVIDIA SLI — и консоль опять пасет задних
Дешево и сердито… Ведь все уже привыкли к режиму дуал в работе оперативки, вот и дуал режим стучится в наши дома, я сам пользуюсь этой фишкой уже более 4-х лет и не жу-жу
Точно, каюсь — пойду в угол постою. Это надо было так спороть, у самого-то стояло 2-х 4890 Это можно на ATI использовать разные карты но с одного семейства, типа: 4890 и 4850…
Ну потенциально карточки делят между собой обработку физики и графики, типа слабая считает физику а мощная рендерит текстуры на физ. модель. На ATI это просто — у кого моник, тот и текстуры считает По идее у nVidia должно быть так же
какие блин DX12 в по сути бюджетных APU Jaguar ? им туда дай бох впихнуть полноценный DX11 функционал.
максимум что там может быть из DX11+ — Partial Resident Textures (превед Джону Кармаку и его мега-текстурам) от AMD обозванные в DX11.2 Tiled Texture-ами.
1. Это был лишь пример как таковой. Например именно нынешнее поколение внедрило обязательные Шейдеры 3.0 которые полностью вывели из игры целое поколение видеокарточек весьма мощьных и способных еще долго жить, но не имея нужных шейдеров пошли на помойку.
2. Не забываем простого фактаAPU Jaguar на новом боксе был доработан MS. То есть по факту они туда уже могли запилить поддержку DX15 что бы консоль могла дольше жить. Примерно так же вышло с DX11 на Xbox360. Именно МС контролирует развитие DX, так что сыграть себе на руку этим они вполне могут. Ну а у Sony вообще своя библиотека на базе OGL, да и то, как говорят знащие люди, различается с обычной OGL так же сильно как и с DX.
Playstation shader language уделывает DirectX по возможностям и предназначен специально для платформы Playstation. Об этом очень часто упоминают разработчики. Даже заявляют что возможностей больше чем у OpenGL. Так что это ещё спорный вопрос. Вот на Xbox one будет DirectX, это ведь майкрософт.
И такой еще вопрос. Купил карту 660Ti. (Карточка немного мусорит как у donfoxik). Но вопрос в том что карта под PCIExpress 3.0, а в мамке PCI Express 2.0. Влияет это как то на производительность?
Абсолюно не влияет. Будет работать без проблем. По поводу мусора: сегодня получил ответ от официальной поддержки ASUS:
«Проблема заключается либо в GPU, либо видеопамяти. Для более точного ответа необходимо провести тестирование, в том числе специальными программами, разработанными нашей компанией. Вам необходимо обратиться к продавцу видеокарты для передачи ее в авторизированный сервисный центр. Разобраться в ситуации можно будет только после проведения диагностики детальной диагностики.»
Завтра несу в сервис свою.
смотри может что то не так сделал или биоса нового не было. может версии биоса новой нету. мне сразу помогло. все работает идеально играю часами все ок.
ладно неси в сервис…. потом напишешь что там сказали.
Первоначальный диагноз — на обратной стороне в местах пайки памяти есть окисления. В общем предварительно сказали что скорее всего это из-за памяти. В общем «вскрытие» на стенде покажет. Сказали что через пару недель будет ответ.
Что касается обновы БИОС-а: С оф. сайта скачал действительно НОВУЮ версию биоса, вернее там идет утилита, которая после установки проверяет необходимость обновления, сама обнаружила, предложила, обновила… На стартовом экране версия биоса карточки поменялось. Так что все было сделано все правильно….
Я не знаю как у тебя, а у нас в Донецке в авторизованном сервисе когда сдаешь на ремонт такую игрушку, то пишешь заявление и сервисный центр тебе выдает карточку (слабее конечно же) на время ремонта
Дмитрий вы вкурсе что если переизбыток мощности БП тоже не есть хорошо, из-за этого может быть быстрее износ железа, 850w-1000w берут в основном для Слай и Кроссвайра, в вашем случае 750Ватт хватило бы с головой, насоящих 750в.
Ну у меня 570 уже 2 года и все прекрасно тянет, разве что rage на максималках реально глючит, еще бы, id tech5 новенький и сырой, причем с невыдающейся графикой, во всяком случае это видно в rage, а rage к тому же с совершенно давным-давно заезженным сюжетом, который уже просто скучен. Чеж налепят в Дум 4 )))
Кому интересно по поводу моих разборок с сервисом по поводу 660 ti от ASUS. Так вот диагноз: неисправимый дефект оперативной памяти. Результат: замена на новую видеокарту. Второй день нагибаю «новую» карточку — полет ОТЛИЧНЫЙ ни каких полос и подобных глюков. Так что у кого есть подобная байда — бегом в сервис.
Дмитрий собственно вопрос: почему такое предпочтение сборок видеокатр от ASUS? Есть ли какие-либо принципиальные аспекты выбора, ну например надёжность или заводской разгон?
я себе взял 660 и им доволен. впределах 7000. сменил gf9600gt который у меня простоял лет 5. и правда только в этом году стал испытывать в игра дискомфорт, а crysis 3 вообще не работал, типа dx11 требует аппаратно. поставил 660 проблемы все ушли все игры на максимуме играются даже crysis 3. не вижу смысла покупать карту дороже 10000р быстро устраревают все равно за ними не угнаться. правда из за смены видахи блок питания тоже пришлост сменить 600ватт мало оказалось поставил 1010w все работает ок. и я очень доволен.
у меня 660 + i5 3470
мамка h61 asrock
Блок на 450!!!! обычный fsp
все прекрасно работает
мне в магазине говорили 500 ватт и у них работает!! а у меня 600 (cooler master) включается и сразу выключается… если всю переферию отключить(оптические приводы все usb устройства лишние и тд) то работает, но периферия тоже нужна. я поставил fsp на 1010ватт все отлично работает.
у меня два привода core i5 661. и еще usb устройства. мамка gigabyte. скорее всего по моему тесту bd-re много требует. поэтому и не хватает. питание по шине +12в не хватало. можно было поставить ватт 800 и нормально было. но лучше с запасом. еще периферии много.
Вот у меня к тебе вопросик как обладателю 660. Я себе недавно взял 660 ti от ASUS в надежде что потом поставлю вторую по SLI, только вот есть одна печалька — карточка «мусорит», в 3D играх появляются горизонтальные артефакты в виде полупрозрачных полос. Ковырял Инет — многие жалуются, но как я понял это проблемы именно с процом серии 660, а вернее в дровишками под него, в каждым новым обновлением, игр с таким «мусором» все меньше и именьше.
Так вот у тебя карточка «мусорит»?
было дело. по началу глючила. но я все исправил. причину за 2 дня нашел. и кстати в нете вычитал. там есть ответ на этот вопрос. дело даже не в дровах к ней. если даже самые новые скачать с сайта nvidia причина останется. правда я не знаю точно как у asus, у меня gigabyte. я просто с сайта производителя карты (не чипа nvidia, а именно карты gigabyte) скачал новый bios и обновил его, проблема исчезла. скорее всего у асус так же.
а причина в том что видаха глючит так как частоты проца отбражаются завышенно, и драйвер вылетает. или просто игру перезапускаешь и все ок, пока опять опять глючить не начнет.
так что обнови биос.
680 совсем не новая(анонсирована 24-03-2012) и уж тем более не топовая, топовая Titan (обзор: http://www.3dnews.ru/video/645661), хотя и вышла раньше 7ХХ серии. (про стоимость промолчу … )
Например результат по Battlefield 3 (DirectX 11):
680 — 50 fps
780 — 66 fps
Titan — 68 fps
Кто тебе сказал что не топовая?! ))) Что думаешь если новое поколение вышло, то предыдщие топовые уже не топовые?! Абсурд! Не мели ерунду! Конечно топовые! И 580 до сих пор еще топовой считается! Конечно все относительно, но это топ, во всяком случае пока еще!
Видимо обзоры других обозревателей здесь не принимаются, на да и пофиг… мне то что, просто народ меньше знать будет!
В нем заодно говорилось например, что в Battlefield 3 на 680 выдает 68 фпс минимум… потому что многое влияет на фпс.
http://www.youtube.com/watch?v=J7wygv6igyg
Тут тесты по B3, показывающие 68 фпс на этой видюхи )))
С обновкой.
Поздравляю с покупкой! Хороший выбор. У асусов очень тихий охлад (Direct CUII ).
Ну а что касается ускорения в рендеринге, то мой личный опыт показывает, что в большей степени снижается нагрузка на CPU, чем что-то там ускоряется.
По крайней мере, если рендерить в H.264 (Adobe Premiere Pro 5.5.2).
Верстать видео и РЕНДЕРИТЬ 3D модели — это разные вещи. У меня до аппа стояло 2 карточки 4890, так АутоДеск временами задумывался, хотя сейчас я взял себе 660ti в надежде что соединю их парой, но у них есть малоприятные баги которые при работе с 3D мягко говоря утомляют.
Так вот я могу с уверенностью сказать что РЕНДЕРИНГ 3D моделей на 2-х картах младших серий (соединенных по технологии AMD CrossFireX / NVIDIA SLI) тягает за уши на той же операции более старшую (и как правило гораздо дороже) карточку
почему «не смотреть»? это все равно что перед мышью положить сыр и сказать «не ешь»
А мне интересно почему Дмитрий сравнивает видеокарту с не вышедшей консолью и говорит про не довольствие ценой.
Компьютер всегда (если совсем не уходить далеко в прошлое) стоил дороже консолей.
Но и игры сейчас на ПК стоят в разы дешевле, в итоге мы имеем почти равную цену.
консоли всегда были и есть ущербными по своей природе, ведь перед разработчиками стояла раньше и стоит сейчас задача из разряда «надо сделать игровую платформу с розничной ценой $100-300» и вот как хотите так в это прокрустово ложе и втискивайтесь.
собсно по-этому мне не понятно не желание Дмитрия сделать обзор аркадных игровых платформ, ведь там всё было реально для игр, допустим в 80х нужно авторам для какой-то игры пара лишних слоев тайл-карт — не вопрос, добавляем их на плату, или позже в 90х нужно для более лучшей 3Д графики еще FPU/DSP для расчета векторов и пара текстурных чипов (TSP) для их отрисовки — тоже не вопрос, то есть всё делалось лишь бы игры в итоге выглядели и звучали так как задумали их авторы.
ну а в случае (всеми любимых) консолей то что не укладывалось в их возможности нахер вырезалось, в случае ПК где-то так же, то что выходило за рамки «среднестатистической конфигурации компа» шло под нож.
Дмитрий, может всё таки стоит сделать передачи про платформы сделанные для игр ? в смысле платформ, которые не редко делались именно для конкретных игр.
немножко разъясню последнюю фразу по поводу «платформ для игр».
что мы имеем в случае консолей или ПК:
разработчики думают — вот мы имеем такое железо (или типовую конвигурацию ПК), что мы такого крутого можем на нем сделать ?
в случае аркад 70х-90х:
— у нас есть идея сделать вот такую навороченную игру, какое железо нам надо сделать чтоб воплотить эти идеи в жизнь ?
я надеюсь смысл понятен
Равная цена? Даже примерно их равной назвать нельзя. Консоль должна быть дешёвой, ибо она скоро устареет и её сменит консоль нового поколения. А так как консоль мало кто покупает, но всё таки берут, иначе как поиграть то, то деньги поднимают хотя бы на играх, хотя цены не космические. А вот с ПК дела обстоят чуток иначе. Железо не дорогое, и оно есть у всех практически. Игр много и даже очень, и игроки зажрались, перебирают харщами. По этому игры дешёвые. Если сравнивать цены, получается что консоль имеет дорогое оборудование внутри себя, но сама по себе стоит дёшего и игры не дорогие по сути. А комп дорогое удовольствие, ибо его используют не только для игр. А цена игр, разная встречается. Порой такая же как и консольная.
Дима теперь и тебе вопросик, у тебя карточка «мусорит» как 660Ti?
я ответил тебе выше. правд у меня не ti а просто. ti дорого да и существенных плюслв не нашел. а sli мне не нужен. поэтому я выбрал просмто 660 лешевле и кстати намного.
Есть все шансы, что ты прокололся с покупкой. Новое Поколение консолей, даже при учете, что оно слабее нынешних топовых ПК, это резкий скачек технологических возможностей в играх, а значит твоя карта может весьма быстро стать не нужным мусором из-за введения какого нибудь ДХ 12, акалоги которого будут на консолях, а на твоей видюшки нема.
А решается это проблема крайне просто. Покупается карточка которая держит DX12 (например) и соединяются через NVIDIA SLI — и консоль опять пасет задних


Дешево и сердито… Ведь все уже привыкли к режиму дуал в работе оперативки, вот и дуал режим стучится в наши дома, я сам пользуюсь этой фишкой уже более 4-х лет и не жу-жу
Сам-то понял что фигню написал? В SLI можно соединить только видюхи одного поколения.
Точно, каюсь — пойду в угол постою. Это надо было так спороть, у самого-то стояло 2-х 4890
Это можно на ATI использовать разные карты но с одного семейства, типа: 4890 и 4850…
А даже еслиб была возможность соеденить разные поколения это не помогло-бы видюхе расчитаной под DX 11 работать в DX 12
Ну потенциально карточки делят между собой обработку физики и графики, типа слабая считает физику а мощная рендерит текстуры на физ. модель. На ATI это просто — у кого моник, тот и текстуры считает
По идее у nVidia должно быть так же
какие блин DX12 в по сути бюджетных APU Jaguar ? им туда дай бох впихнуть полноценный DX11 функционал.
максимум что там может быть из DX11+ — Partial Resident Textures (превед Джону Кармаку и его мега-текстурам) от AMD обозванные в DX11.2 Tiled Texture-ами.
1. Это был лишь пример как таковой. Например именно нынешнее поколение внедрило обязательные Шейдеры 3.0 которые полностью вывели из игры целое поколение видеокарточек весьма мощьных и способных еще долго жить, но не имея нужных шейдеров пошли на помойку.
2. Не забываем простого фактаAPU Jaguar на новом боксе был доработан MS. То есть по факту они туда уже могли запилить поддержку DX15 что бы консоль могла дольше жить. Примерно так же вышло с DX11 на Xbox360. Именно МС контролирует развитие DX, так что сыграть себе на руку этим они вполне могут. Ну а у Sony вообще своя библиотека на базе OGL, да и то, как говорят знащие люди, различается с обычной OGL так же сильно как и с DX.
Playstation shader language уделывает DirectX по возможностям и предназначен специально для платформы Playstation. Об этом очень часто упоминают разработчики. Даже заявляют что возможностей больше чем у OpenGL. Так что это ещё спорный вопрос. Вот на Xbox one будет DirectX, это ведь майкрософт.
Вопрос. Можно ли использовать карты Nvidia одного поколения, но разных производителей по SLI ?
И такой еще вопрос. Купил карту 660Ti. (Карточка немного мусорит как у donfoxik). Но вопрос в том что карта под PCIExpress 3.0, а в мамке PCI Express 2.0. Влияет это как то на производительность?
Абсолюно не влияет. Будет работать без проблем. По поводу мусора: сегодня получил ответ от официальной поддержки ASUS:
«Проблема заключается либо в GPU, либо видеопамяти. Для более точного ответа необходимо провести тестирование, в том числе специальными программами, разработанными нашей компанией. Вам необходимо обратиться к продавцу видеокарты для передачи ее в авторизированный сервисный центр. Разобраться в ситуации можно будет только после проведения диагностики детальной диагностики.»
Завтра несу в сервис свою.
ни чего себе даже в сервис нести. попробуй все таки биос обновить. у меня все прошло. 100%.
Щас попробую
Обновления В-БИОС результата не дал — так что: Здравствуй СЕРВИС

смотри может что то не так сделал или биоса нового не было. может версии биоса новой нету. мне сразу помогло. все работает идеально играю часами все ок.
ладно неси в сервис…. потом напишешь что там сказали.
Первоначальный диагноз — на обратной стороне в местах пайки памяти есть окисления. В общем предварительно сказали что скорее всего это из-за памяти. В общем «вскрытие» на стенде покажет. Сказали что через пару недель будет ответ.
Что касается обновы БИОС-а: С оф. сайта скачал действительно НОВУЮ версию биоса, вернее там идет утилита, которая после установки проверяет необходимость обновления, сама обнаружила, предложила, обновила… На стартовом экране версия биоса карточки поменялось. Так что все было сделано все правильно….
Ясно. Спасибо
Расскажи потом что они скажут после диагностики?
Обязательно, только вот мне кажется что ответа придется ждать минимум недели две, зная как у нас работают все сервисные службы

Это да. А если они еще производителю отправят. То можно пару тройку месяцев ждать:)
Я не знаю как у тебя, а у нас в Донецке в авторизованном сервисе когда сдаешь на ремонт такую игрушку, то пишешь заявление и сервисный центр тебе выдает карточку (слабее конечно же) на время ремонта
Дмитрий вы вкурсе что если переизбыток мощности БП тоже не есть хорошо, из-за этого может быть быстрее износ железа, 850w-1000w берут в основном для Слай и Кроссвайра, в вашем случае 750Ватт хватило бы с головой, насоящих 750в.
Ну у меня 570 уже 2 года и все прекрасно тянет, разве что rage на максималках реально глючит, еще бы, id tech5 новенький и сырой, причем с невыдающейся графикой, во всяком случае это видно в rage, а rage к тому же с совершенно давным-давно заезженным сюжетом, который уже просто скучен. Чеж налепят в Дум 4 )))
Да это одна из лучших gtx 680. У меня тоже самая разогнанная только от MSI. По моему gtx 680 проживет много лет, эта очень удачная модель!
Вполне можно было за те же деньги найти и купить 780! Куда спешить)))
Дмитрий, а как вас в steam найти?
Кому интересно по поводу моих разборок с сервисом по поводу 660 ti от ASUS. Так вот диагноз: неисправимый дефект оперативной памяти. Результат: замена на новую видеокарту. Второй день нагибаю «новую» карточку — полет ОТЛИЧНЫЙ ни каких полос и подобных глюков. Так что у кого есть подобная байда — бегом в сервис.
А почему NVIDIA? ATi же лучше! Кому как ни тебе незнать, ты же делал выпуски и о том и о том?