50 комментариев

  1. Evgen 18 июля, 2013 5:45 пп  Ответить

    Дмитрий собственно вопрос: почему такое предпочтение сборок видеокатр от ASUS? Есть ли какие-либо принципиальные аспекты выбора, ну например надёжность или заводской разгон?

  2. Bani 18 июля, 2013 8:14 пп  Ответить

    я себе взял 660 и им доволен. впределах 7000. сменил gf9600gt который у меня простоял лет 5. и правда только в этом году стал испытывать в игра дискомфорт, а crysis 3 вообще не работал, типа dx11 требует аппаратно. поставил 660 проблемы все ушли все игры на максимуме играются даже crysis 3. не вижу смысла покупать карту дороже 10000р быстро устраревают все равно за ними не угнаться. правда из за смены видахи блок питания тоже пришлост сменить 600ватт мало оказалось поставил 1010w все работает ок. и я очень доволен.

    • theigro 20 июля, 2013 3:00 дп  Ответить

      у меня 660 + i5 3470
      мамка h61 asrock
      Блок на 450!!!! обычный fsp
      все прекрасно работает 🙂

      • Bani 20 июля, 2013 1:52 пп  Ответить

        мне в магазине говорили 500 ватт и у них работает!! а у меня 600 (cooler master) включается и сразу выключается… если всю переферию отключить(оптические приводы все usb устройства лишние и тд) то работает, но периферия тоже нужна. я поставил fsp на 1010ватт все отлично работает.
        у меня два привода core i5 661. и еще usb устройства. мамка gigabyte. скорее всего по моему тесту bd-re много требует. поэтому и не хватает. питание по шине +12в не хватало. можно было поставить ватт 800 и нормально было. но лучше с запасом. еще периферии много.

    • donfoxik 20 июля, 2013 10:47 пп  Ответить

      Вот у меня к тебе вопросик как обладателю 660. Я себе недавно взял 660 ti от ASUS в надежде что потом поставлю вторую по SLI, только вот есть одна печалька — карточка «мусорит», в 3D играх появляются горизонтальные артефакты в виде полупрозрачных полос. Ковырял Инет — многие жалуются, но как я понял это проблемы именно с процом серии 660, а вернее в дровишками под него, в каждым новым обновлением, игр с таким «мусором» все меньше и именьше.
      Так вот у тебя карточка «мусорит»?

      • Bani 24 июля, 2013 7:06 пп  Ответить

        было дело. по началу глючила. но я все исправил. причину за 2 дня нашел. и кстати в нете вычитал. там есть ответ на этот вопрос. дело даже не в дровах к ней. если даже самые новые скачать с сайта nvidia причина останется. правда я не знаю точно как у asus, у меня gigabyte. я просто с сайта производителя карты (не чипа nvidia, а именно карты gigabyte) скачал новый bios и обновил его, проблема исчезла. скорее всего у асус так же.
        а причина в том что видаха глючит так как частоты проца отбражаются завышенно, и драйвер вылетает. или просто игру перезапускаешь и все ок, пока опять опять глючить не начнет.
        так что обнови биос.

  3. AoD314 18 июля, 2013 10:30 пп  Ответить

    680 совсем не новая(анонсирована 24-03-2012) и уж тем более не топовая, топовая Titan (обзор: http://www.3dnews.ru/video/645661), хотя и вышла раньше 7ХХ серии. (про стоимость промолчу … )
    Например результат по Battlefield 3 (DirectX 11):
    680 — 50 fps
    780 — 66 fps
    Titan — 68 fps

    • Timmy 4 августа, 2013 11:47 пп  Ответить

      Кто тебе сказал что не топовая?! ))) Что думаешь если новое поколение вышло, то предыдщие топовые уже не топовые?! Абсурд! Не мели ерунду! Конечно топовые! И 580 до сих пор еще топовой считается! Конечно все относительно, но это топ, во всяком случае пока еще! 😉

    • Timmy 5 августа, 2013 8:48 дп  Ответить

      Видимо обзоры других обозревателей здесь не принимаются, на да и пофиг… мне то что, просто народ меньше знать будет!
      В нем заодно говорилось например, что в Battlefield 3 на 680 выдает 68 фпс минимум… потому что многое влияет на фпс.

  4. DEVES 18 июля, 2013 11:20 пп  Ответить

    Поздравляю с покупкой! Хороший выбор. У асусов очень тихий охлад (Direct CUII ).
    Ну а что касается ускорения в рендеринге, то мой личный опыт показывает, что в большей степени снижается нагрузка на CPU, чем что-то там ускоряется.
    По крайней мере, если рендерить в H.264 (Adobe Premiere Pro 5.5.2).

    • donfoxik 20 июля, 2013 11:03 пп  Ответить

      Верстать видео и РЕНДЕРИТЬ 3D модели — это разные вещи. У меня до аппа стояло 2 карточки 4890, так АутоДеск временами задумывался, хотя сейчас я взял себе 660ti в надежде что соединю их парой, но у них есть малоприятные баги которые при работе с 3D мягко говоря утомляют.
      Так вот я могу с уверенностью сказать что РЕНДЕРИНГ 3D моделей на 2-х картах младших серий (соединенных по технологии AMD CrossFireX / NVIDIA SLI) тягает за уши на той же операции более старшую (и как правило гораздо дороже) карточку

  5. ad.smith 18 июля, 2013 11:56 пп  Ответить

    почему «не смотреть»? это все равно что перед мышью положить сыр и сказать «не ешь»

  6. Mr.Ch 19 июля, 2013 5:19 дп  Ответить

    А мне интересно почему Дмитрий сравнивает видеокарту с не вышедшей консолью и говорит про не довольствие ценой.
    Компьютер всегда (если совсем не уходить далеко в прошлое) стоил дороже консолей.
    Но и игры сейчас на ПК стоят в разы дешевле, в итоге мы имеем почти равную цену.

    • Vitaly 20 июля, 2013 8:49 пп  Ответить

      консоли всегда были и есть ущербными по своей природе, ведь перед разработчиками стояла раньше и стоит сейчас задача из разряда «надо сделать игровую платформу с розничной ценой $100-300» и вот как хотите так в это прокрустово ложе и втискивайтесь.

      собсно по-этому мне не понятно не желание Дмитрия сделать обзор аркадных игровых платформ, ведь там всё было реально для игр, допустим в 80х нужно авторам для какой-то игры пара лишних слоев тайл-карт — не вопрос, добавляем их на плату, или позже в 90х нужно для более лучшей 3Д графики еще FPU/DSP для расчета векторов и пара текстурных чипов (TSP) для их отрисовки — тоже не вопрос, то есть всё делалось лишь бы игры в итоге выглядели и звучали так как задумали их авторы.

      ну а в случае (всеми любимых) консолей то что не укладывалось в их возможности нахер вырезалось, в случае ПК где-то так же, то что выходило за рамки «среднестатистической конфигурации компа» шло под нож.

      Дмитрий, может всё таки стоит сделать передачи про платформы сделанные для игр ? в смысле платформ, которые не редко делались именно для конкретных игр.

      • Vitaly 20 июля, 2013 9:07 пп  Ответить

        немножко разъясню последнюю фразу по поводу «платформ для игр».
        что мы имеем в случае консолей или ПК:
        разработчики думают — вот мы имеем такое железо (или типовую конвигурацию ПК), что мы такого крутого можем на нем сделать ?
        в случае аркад 70х-90х:
        — у нас есть идея сделать вот такую навороченную игру, какое железо нам надо сделать чтоб воплотить эти идеи в жизнь ?

        я надеюсь смысл понятен

    • S.DJ.S 5 августа, 2013 10:06 дп  Ответить

      Равная цена? Даже примерно их равной назвать нельзя. Консоль должна быть дешёвой, ибо она скоро устареет и её сменит консоль нового поколения. А так как консоль мало кто покупает, но всё таки берут, иначе как поиграть то, то деньги поднимают хотя бы на играх, хотя цены не космические. А вот с ПК дела обстоят чуток иначе. Железо не дорогое, и оно есть у всех практически. Игр много и даже очень, и игроки зажрались, перебирают харщами. По этому игры дешёвые. Если сравнивать цены, получается что консоль имеет дорогое оборудование внутри себя, но сама по себе стоит дёшего и игры не дорогие по сути. А комп дорогое удовольствие, ибо его используют не только для игр. А цена игр, разная встречается. Порой такая же как и консольная.

  7. donfoxik 20 июля, 2013 10:49 пп  Ответить

    Дима теперь и тебе вопросик, у тебя карточка «мусорит» как 660Ti?

    • Bani 24 июля, 2013 7:10 пп  Ответить

      я ответил тебе выше. правд у меня не ti а просто. ti дорого да и существенных плюслв не нашел. а sli мне не нужен. поэтому я выбрал просмто 660 лешевле и кстати намного.

  8. Bkmz 21 июля, 2013 8:23 пп  Ответить

    Есть все шансы, что ты прокололся с покупкой. Новое Поколение консолей, даже при учете, что оно слабее нынешних топовых ПК, это резкий скачек технологических возможностей в играх, а значит твоя карта может весьма быстро стать не нужным мусором из-за введения какого нибудь ДХ 12, акалоги которого будут на консолях, а на твоей видюшки нема.

    • donfoxik 21 июля, 2013 9:05 пп  Ответить

      А решается это проблема крайне просто. Покупается карточка которая держит DX12 (например) и соединяются через NVIDIA SLI — и консоль опять пасет задних 🙂 🙂 🙂
      Дешево и сердито… Ведь все уже привыкли к режиму дуал в работе оперативки, вот и дуал режим стучится в наши дома, я сам пользуюсь этой фишкой уже более 4-х лет и не жу-жу 🙂 🙂 🙂

      • TheRock666 21 июля, 2013 11:02 пп  Ответить

        Сам-то понял что фигню написал? В SLI можно соединить только видюхи одного поколения.

        • donfoxik 21 июля, 2013 11:46 пп  Ответить

          Точно, каюсь — пойду в угол постою. Это надо было так спороть, у самого-то стояло 2-х 4890 🙂 🙂 🙂 Это можно на ATI использовать разные карты но с одного семейства, типа: 4890 и 4850…

      • TheRock666 21 июля, 2013 11:03 пп  Ответить

        А даже еслиб была возможность соеденить разные поколения это не помогло-бы видюхе расчитаной под DX 11 работать в DX 12

        • donfoxik 21 июля, 2013 11:51 пп  Ответить

          Ну потенциально карточки делят между собой обработку физики и графики, типа слабая считает физику а мощная рендерит текстуры на физ. модель. На ATI это просто — у кого моник, тот и текстуры считает 🙂 По идее у nVidia должно быть так же

    • Vitaly 22 июля, 2013 1:03 дп  Ответить

      какие блин DX12 в по сути бюджетных APU Jaguar ? им туда дай бох впихнуть полноценный DX11 функционал.
      максимум что там может быть из DX11+ — Partial Resident Textures (превед Джону Кармаку и его мега-текстурам) от AMD обозванные в DX11.2 Tiled Texture-ами.

      • Bkmz 22 июля, 2013 11:47 пп  Ответить

        1. Это был лишь пример как таковой. Например именно нынешнее поколение внедрило обязательные Шейдеры 3.0 которые полностью вывели из игры целое поколение видеокарточек весьма мощьных и способных еще долго жить, но не имея нужных шейдеров пошли на помойку.
        2. Не забываем простого фактаAPU Jaguar на новом боксе был доработан MS. То есть по факту они туда уже могли запилить поддержку DX15 что бы консоль могла дольше жить. Примерно так же вышло с DX11 на Xbox360. Именно МС контролирует развитие DX, так что сыграть себе на руку этим они вполне могут. Ну а у Sony вообще своя библиотека на базе OGL, да и то, как говорят знащие люди, различается с обычной OGL так же сильно как и с DX.

  9. Next777777 22 июля, 2013 2:12 дп  Ответить

    Playstation shader language уделывает DirectX по возможностям и предназначен специально для платформы Playstation. Об этом очень часто упоминают разработчики. Даже заявляют что возможностей больше чем у OpenGL. Так что это ещё спорный вопрос. Вот на Xbox one будет DirectX, это ведь майкрософт.

  10. evgeniy 23 июля, 2013 11:27 дп  Ответить

    Вопрос. Можно ли использовать карты Nvidia одного поколения, но разных производителей по SLI ?

  11. evgeniy 23 июля, 2013 11:57 дп  Ответить

    И такой еще вопрос. Купил карту 660Ti. (Карточка немного мусорит как у donfoxik). Но вопрос в том что карта под PCIExpress 3.0, а в мамке PCI Express 2.0. Влияет это как то на производительность?

    • donfoxik 23 июля, 2013 9:32 пп  Ответить

      Абсолюно не влияет. Будет работать без проблем. По поводу мусора: сегодня получил ответ от официальной поддержки ASUS:
      «Проблема заключается либо в GPU, либо видеопамяти. Для более точного ответа необходимо провести тестирование, в том числе специальными программами, разработанными нашей компанией. Вам необходимо обратиться к продавцу видеокарты для передачи ее в авторизированный сервисный центр. Разобраться в ситуации можно будет только после проведения диагностики детальной диагностики.»
      Завтра несу в сервис свою.

      • Bani 24 июля, 2013 7:12 пп  Ответить

        ни чего себе даже в сервис нести. попробуй все таки биос обновить. у меня все прошло. 100%.

        • donfoxik 24 июля, 2013 10:52 пп  Ответить

          Обновления В-БИОС результата не дал — так что: Здравствуй СЕРВИС 🙂 🙂 🙂

          • Bani 25 июля, 2013 7:09 пп  Ответить

            смотри может что то не так сделал или биоса нового не было. может версии биоса новой нету. мне сразу помогло. все работает идеально играю часами все ок.
            ладно неси в сервис…. потом напишешь что там сказали.

          • donfoxik 26 июля, 2013 9:19 пп  Ответить

            Первоначальный диагноз — на обратной стороне в местах пайки памяти есть окисления. В общем предварительно сказали что скорее всего это из-за памяти. В общем «вскрытие» на стенде покажет. Сказали что через пару недель будет ответ.

          • donfoxik 26 июля, 2013 9:21 пп  Ответить

            Что касается обновы БИОС-а: С оф. сайта скачал действительно НОВУЮ версию биоса, вернее там идет утилита, которая после установки проверяет необходимость обновления, сама обнаружила, предложила, обновила… На стартовом экране версия биоса карточки поменялось. Так что все было сделано все правильно….

  12. evgeniy 24 июля, 2013 2:25 дп  Ответить

    Ясно. Спасибо

  13. evgeniy 24 июля, 2013 2:29 дп  Ответить

    Расскажи потом что они скажут после диагностики?

    • donfoxik 24 июля, 2013 7:28 дп  Ответить

      Обязательно, только вот мне кажется что ответа придется ждать минимум недели две, зная как у нас работают все сервисные службы 🙂 🙂 🙂

  14. evgeniy 25 июля, 2013 2:11 пп  Ответить

    Это да. А если они еще производителю отправят. То можно пару тройку месяцев ждать:)

    • donfoxik 25 июля, 2013 5:12 пп  Ответить

      Я не знаю как у тебя, а у нас в Донецке в авторизованном сервисе когда сдаешь на ремонт такую игрушку, то пишешь заявление и сервисный центр тебе выдает карточку (слабее конечно же) на время ремонта

  15. DeadViper 1 августа, 2013 10:08 дп  Ответить

    Дмитрий вы вкурсе что если переизбыток мощности БП тоже не есть хорошо, из-за этого может быть быстрее износ железа, 850w-1000w берут в основном для Слай и Кроссвайра, в вашем случае 750Ватт хватило бы с головой, насоящих 750в.

  16. Timmy 5 августа, 2013 9:39 дп  Ответить

    Ну у меня 570 уже 2 года и все прекрасно тянет, разве что rage на максималках реально глючит, еще бы, id tech5 новенький и сырой, причем с невыдающейся графикой, во всяком случае это видно в rage, а rage к тому же с совершенно давным-давно заезженным сюжетом, который уже просто скучен. Чеж налепят в Дум 4 )))

  17. Александр 12 августа, 2013 8:49 пп  Ответить

    Да это одна из лучших gtx 680. У меня тоже самая разогнанная только от MSI. По моему gtx 680 проживет много лет, эта очень удачная модель!

  18. Timmy 19 августа, 2013 7:17 дп  Ответить

    Вполне можно было за те же деньги найти и купить 780! Куда спешить)))

  19. ZeroCool 24 августа, 2013 7:36 пп  Ответить

    Дмитрий, а как вас в steam найти?

  20. donfoxik 29 августа, 2013 10:45 дп  Ответить

    Кому интересно по поводу моих разборок с сервисом по поводу 660 ti от ASUS. Так вот диагноз: неисправимый дефект оперативной памяти. Результат: замена на новую видеокарту. Второй день нагибаю «новую» карточку — полет ОТЛИЧНЫЙ ни каких полос и подобных глюков. Так что у кого есть подобная байда — бегом в сервис.

  21. Сомневающийся 30 июня, 2017 1:19 дп  Ответить

    А почему NVIDIA? ATi же лучше! Кому как ни тебе незнать, ты же делал выпуски и о том и о том?

Leave a reply to Vitaly Cancel reply

Войти с помощью: 

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.