Разработчики подтвердили недавно утекшие из корейского подразделения Ubisoft данные о системных требованиях Assassin's Creed: Unity. И требования действительно высокие...

Те, кто надеялся отправиться в революционный Париж 13 ноября, должны запастись мощной видеокартой и большим количеством оперативной памяти. Разработчики решили перейти в некстген с помпой, только вот игра пока впечатляет не так сильно, как системные требования, а они такие:

Минимальная конфигурация компьютера:

Операционная система: Windows 7 SP1 64-бит/Windows 8 64-бит/Windows 8.1 64-бит;
Процессор: Intel Core i5-2500K 3.3 ГГц или AMD FX-8350 4.0 ГГц;
Видеокарта: NVIDIA GeForce GTX 680 или AMD Radeon HD 7970;
Видеопамять: 2 Гб;
Оперативная память: 6 Гб;
Звуковая карта: совместимая с DirectX 9.0c;
Жесткий диск: 50 Гб свободного пространства;
Мультиплеер: интернет-соединение со скоростью 256 кбит/с или выше.

Рекомендуемая конфигурация компьютера:

Операционная система: Windows 7 SP1 64-бит/Windows 8 64-бит/Windows 8.1 64-бит;
Процессор: Intel Core i7-3770 3.4 ГГц или AMD FX-8350 4.0 ГГц;
Видеокарта: NVIDIA GeForce GTX 780 или AMD Radeon R9 290X;
Видеопамять: 3 Гб;
Оперативная память: 8 Гб;
Звуковая карта: совместимая с DirectX 9.0c;
Жесткий диск: 50 Гб свободного пространства;
Мультиплеер: интернет-соединение со скоростью 256 кбит/с или выше.

http://youtu.be/qaA-S-aI3jE


При этом не уточняется, являются ли данные требования обязательными для всех, или только для тех, кто собирается играть в разрешении 4к. По крайней мере, в данный момент именно такие требования размещены на официальной страничке игры в стиме. В любом случае, все те, кто не сможет оценить красоты Парижа 18 века, вольны отправиться в североамериканский круиз вместе с Assassin's Creed: Rogue. По непроверенным данным, стоимость у обеих игр будет одинаковой. Релиз некстгенного до требований к вашему кошельку Unity назначен на консолях нового поколения и PC 13-го ноября; в тот же день Rogue выходит на старых консолях и только в начале 2015-го года доберётся до PC.

upd. Добавлю, что ранее представители Ubisoft заявили, что на консолях нового поколения игра будет идти в разрешении 900p, а Sony уравняют с отстающим Xbox (до этого было обещано, что все получат равный FullHD - 1080p). Помимо этого разработчики решили, что планка в 30 кадров в секунду - ровно то, что нужно современному геймеру. Элли и Джоэл с ними решительно несогласны.
Комментарии
  • 1Pache | 24 октября 2014 г.
    "Мы не можем сделать 60 fps - тогда давайте выдумаем, что 30 fps даже лучше!"
    Это уже новый уровень наглости - настоящий "некстген".
    • 0sergeidart | 24 октября 2014 г.
      А Сахноид согласился бы с тем, что 30 фпс лучше)
  • 0Cherenkov | 24 октября 2014 г.
    Оу, я конечно не очень сильно шарю, но так называемая "рекомендуемая" конфигурация ведь является топовой на данный момент?)
    • 0sergeidart | 24 октября 2014 г.
      Практически, во-первых уже вышли гораздо более производительные и энергоэффективные 900-е. Во-вторых есть ещё 980ti, вот он лидер. Да и процессоры вышли более новые. В остальном - это действительно топовое железо.
      • 0Forest_Swamp | 24 октября 2014 г.
        Прямо сейчас в паре метров от меня у напарника на столе лежит 970, которую ему по заказу притащили прямо на работу. Цена: 17100.
        • 0Forest_Swamp | 24 октября 2014 г.
          Свою карту он брал за 24000 и это была, если не ошибаюсь, 760.
          • 0sergeidart | 24 октября 2014 г.
            Скорее всего 770-780, 760 столько отродясь не стоила. И да, ещё они дешевле)
          • 0sergeidart | 24 октября 2014 г.
            И это он ещё дорого взял!)
            • 0Forest_Swamp | 24 октября 2014 г.
              Это с учетом наценки за доставку - 350 рублей. Я другу уже написал об этой видяхе, пусть думает.
              • 0sergeidart | 24 октября 2014 г.
                Я тоже думаю взять, хотя у меня мать будет узким местом всей системы( И корпус менять уже надо.
                • 0Forest_Swamp | 24 октября 2014 г.
                  Я пока не задумываюсь об этом. Мне кредита и ипотеки хватает. :D
                  • 0Forest_Swamp | 24 октября 2014 г.
                    Хотя... Можно и подумать.
                    • 0sergeidart | 24 октября 2014 г.
                      Я пока не связан так явно... и я думаю, усиленно думаю!
                      • 0Forest_Swamp | 24 октября 2014 г.
                        У друга двухгиговая Palit GeForce GTX760 JetStream. Не знаю стоит ли ему менять. Но он жалуется что играя на 4к у него лагает Planetside 2. Раньше такого небыло (когда играл на обычном HD мониторе).
                        • 0sergeidart | 24 октября 2014 г.
                          Что логично, 4к - вчетверо больший экран.
                          • 0Forest_Swamp | 24 октября 2014 г.
                            Соль в том, что карта по характеристикам тянет 4к, но даже на низких параметрах графики подлагивает. Конечно можно списать на необкатанность технологии или плохую оптимизацию игры, но я на своей Radeon HD 5670 тяну PS2 на средних без лагов. Но естественно монитор у меня не 4к, поэтому сравнение ни о чем. Я лишь об оптимизации игры.
                            • 0sergeidart | 24 октября 2014 г.
                              Ещё раз. В 4 раза большее разрешение, в 2,5-3 раза большие требования к видеокарте.
                              • 0Forest_Swamp | 24 октября 2014 г.
                                Но зачем писать в хар-ках видюхи то, что она не может адекватно потянуть? Маркетинг?
                                • 0Forest_Swamp | 24 октября 2014 г.
                                  Или это для галочки, типа можно (в теории) запускать игры на 4к.
                                  • 0sergeidart | 24 октября 2014 г.
                                    Именно так и есть. Что-нибудь старое - без проблем, но не новьё)
                                    • 0Forest_Swamp | 24 октября 2014 г.
                                      Печально что так выходит. Человек берет карту с поддержкой 4к, запускает какой-то Planetside 2 и получает 15fps с мерцанием текстур (на низких) или 10 fps на средних, но без мерцания.
                                      • 0Forest_Swamp | 24 октября 2014 г.
                                        К слову об fps. На днях покупал usb hub. Сижу жду пока вызовут. Вижу на мониторе транслируется какой-то fps-тест NVidia и интегрированной видюшки. В батле явное преимущество у NVidia (сам факт теста дискретной карты с интегрированной картой выглядит комично), но тут наблюдаем Borderlends 2. NV выдает fps ниже, чем у чипсета, на пару fps (9 против 11 fps). Я хотел спросить у продавца "как им удалось добиться такого фееричного результата", но не стал.
                                        • 0sergeidart | 24 октября 2014 г.
                                          Если речь идёт о 5100 и 250-ой, то так и должно быть)
                                          • 0Forest_Swamp | 24 октября 2014 г.
                                            Надо было уточнить. Там заглавие гласило что-то типа "Дискретность лучше интеграции" или как-то так.
                                            • 0sergeidart | 24 октября 2014 г.
                                              Значит речь о low-end дискретных видеокартах)
                                    • Свернуть ветку
                              • 0SAXAHOID | 25 октября 2014 г.
                                Ой, да что вы говорите.
                                Почему тогда я не получаю прироста в 2.5-3 раза, переходя с 1920x1080 на 800x600? Тоже четыре раза, да ещё с хвостиком.
                                Разрешение играет куда меньшую роль, чем обработка 3D и всякие там ненужные сглаживания.
                                Так что Свомп на все 200% прав о низкой оптимизации либо игры, либо карты, либо железа.
                                • 0SAXAHOID | 25 октября 2014 г.
                                  ^железа^ОС
                                  Разумеется
                                  • 0sergeidart | 25 октября 2014 г.
                                    Читай лучше. Я писал о 4-кратной разнице в разрешении и в 1,5-3 различающихся требованиях. Тем более, что 3Д модель остаётся той же, просто переход из трёхмерной системы координат в её проекцию на мониторе таки требует времени. И это время тем больше, чем больше количество точек-пикселей, это справедливо только для одинакового железа, что, таки да, вполне логично.
                                    • 0SAXAHOID | 25 октября 2014 г.
                                      Ииииии?
                                      Разница в разрешении 800x600 и 1920x1080 (одна игра) — повышение требований к железу в худшем случае 30%.
                                      Разница в разрешении 1920x1080 и 3840x2160 (одна игра) — повышение требований (по твоей версии) к железу минимум 150%.
                                      Разница что там, что там, 4-кратная. Прости, в упор не вижу, что где мною плохо прочитано.
                                      • 0sergeidart | 25 октября 2014 г.
                                        Ну-ну, если разница в некоторых играх между 720p и 1080 достигает 40%. Ага-ага, конечно 30%.
                                        • 0SAXAHOID | 25 октября 2014 г.
                                          30% — это из моего личного опыта с AvP 2010.
                                          Твои 40% — скорее всего, опять-таки следствие плохой оптимизации.
                                          • 0sergeidart | 25 октября 2014 г.
                                            При том что AvP 10 года пример отстойной оптимизации)
                                            • 0SAXAHOID | 25 октября 2014 г.
                                              Ну видишь? При отстойной оптимизации 30%.
                                              Так при хорошей и 10 быть не должно!
                                              • 0sergeidart | 25 октября 2014 г.
                                                Если разницы между разрешениями нет, значит кто-то залочил ФПС, а твоё значение выше.
                                                • 0SAXAHOID | 25 октября 2014 г.
                                                  >Прочитал выше о разнице в 30%
                                                  >Спустя всего два коммента забыл и решил, что разницы нет
                                                  Разве память человека такая кратковременная? ._.
                                                  • 0sergeidart | 25 октября 2014 г.
                                                    >Так при хорошей и 10 быть не должно!
                                                    Меньше 10% разницы - это разницы практически нет. Такое бывает только с ОЧЕНЬ старыми играми.
                                                    И да, я исправил)
                                                    • 0SAXAHOID | 25 октября 2014 г.
                                                      >Меньше 10% разницы
                                                      Ну, положим, это был сарказм, который ты не распознал из-за отсутствия в текстовом виде интонаций помимо банального восклицательного знака...

                                                      Но суть от того не меняется. Сколько себя помню (а у меня, можешь поверить на слово, опыт в подгонянии требований так, чтобы и не лагало, и выглядело получше, огромный), всегда увеличение разрешения до максимума монитора влияло на воспринимаемое качество изображения сильнее, чем всё остальное, вместе взятое.
                                                      Притом на ФПС оно по моим наблюдениям вообще почти никак не влияло, потому разрешение обычно ставилось сразу в максимум и больше не трогалось: выигрыша в скорости с него никогда не было.
                                                      Выигрыш хороший всегда был с детализации, теней и сглаживания. Оттуда я вполне логично и сужу, что самые ресурсоёмкие вещи для видеокарты — не выхлоп пикселей, а создание картинки, которая перегоняется в эти пиксели, из текстур, геометрии, всяких там -самплингов и прочей фигни, которую ты мне перечислишь куда лучше, чем я — тебе.

                                                      Это результаты множественных опытов, и крыть их, собсно говоря, точно так же нечем, как и тот факт, что PCI-E 3.0 нужен только для рассчётов на карте — для игр с головой хватает PCI-E 2.0, причём x8.
                                                      Можно попробовать объяснить.
                                                      • 0SAXAHOID | 25 октября 2014 г.
                                                        ^требований^настроек
                                                        Когда там уже редактирование будет >.>
                                                        • 0sergeidart | 26 октября 2014 г.
                                                          Сделай одни и те же настройки и прогони разные разрешения, разница между 1280 и 1920 - уже есть. Ты ещё сейчас скажи, что память DDR3 тоже нафиг не нужна, хватит и второго!
                                                          • 0SAXAHOID | 26 октября 2014 г.
                                                            На одних и тех же настройках при разных разрешениях разницы заметной глазу нет.
                                                            О чём написано выше. Цитирую.
                                                            "Притом на ФПС оно по моим наблюдениям вообще почти никак не влияло, потому разрешение обычно ставилось сразу в максимум и больше не трогалось: выигрыша в скорости с него никогда не было."
                                                            Не надо, пожалуйста, полагать, что разговариваешь с не слишком разумной кухонной утварью. Если я так пишу — это значит, сравнивалось с переключенной именно и исключительно этой настройкой.
                                                            • 0sergeidart | 26 октября 2014 г.
                                                              И проверялось фрапсом на одном и том же уровне или при помощи встроенного бенчмарка?
                                                              • 0SAXAHOID | 26 октября 2014 г.
                                                                А это мне зачем? Если я не могу распознать разницу на глаз — какое мне, собственно, дело, есть она или нет?
                                                                В случае текстур (детализации) я её на глаз ловлю легко (часто бывают просадки как раз 15-20 фпс, то есть на треть). В случае сглаживания/теней — тоже, но это ещё от игры зависит.
                                                                В случае разрешения — такого у меня не бывало никогда. Ставлю максимальное — лагает. Ставлю минимальное — лагает точно так же.
                                                                Понижаю детализацию. Ставлю максимальное разрешение — не лагает. Ставлю минимальное — тоже не лагает.
                                                                Циферки — оно-то хорошо, конечно, но меня больше волнует результат, чем циферки
                                                                • 0sergeidart | 26 октября 2014 г.
                                                                  Ах да, то самое веселье, когда гиговая видеокарта запарывает всё удовольствие)
                                                                  • 0SAXAHOID | 26 октября 2014 г.
                                                                    Гиговая? ХА! У меня было 512. И всё работало, причём часто на максимальном разрешении текстур. Та же касла — там только тени и сглаживание пришлось сбросить.
                                                                    • 0sergeidart | 26 октября 2014 г.
                                                                      У меня был 32 меговый Гыфорс 2. Работало на максимальном разрешении текстур, году этак в 2007 и не считая крайзис.
                                                                  • Свернуть ветку
                                                          • 0SAXAHOID | 26 октября 2014 г.
                                                            >память DDR3 не нужна
                                                            Ты будешь очень удивлён.
                                                            Тест, правда, с того времени, когда ДДР2 ещё была актуальной. Найдёшь новее — с удовольствием изучу.
                                                            • 0sergeidart | 26 октября 2014 г.
                                                              Новее я вряд ли найду. Но вот что хотелось бы сказать. Играл в БФ3 с gtx660 и феномом x4 на борту, память есессна ддр2. Играл относительно неплохо, узкое горлышко - процессор, убрал тени, пошаманил со всем остальным - работает. Вышла бета БФ4 (тянет же меня на сырое), уже просто не тянет. Обновил железо, видеокарта та же, процессор i5 (один из последних) и уже ДДР3. Снял одну планку, снизил частоту процессора. Не то, чтобы разницы между двумя системами не было, но некоторую корреляцию можно было установить. Так вот, в случае с более новой игрой тащила память, хорошо тащила, тащила как могла, тащила через всё поле боя до победного конца.
                                                              К слову, сейчас всё та же конфигурация, и кроме оперативной, матери и проца не менял же ничего. Даже грешил на блок питания, думал помрёт смертью нехрабрых. Ан нет, ЖД оказался первым. Не знаю зачем я это говорю) Прост))
                                                              • 0SAXAHOID | 26 октября 2014 г.
                                                                Я не совсем понимаю, что ты сделал и что у тебя "тащило". Занизил частоту и стало работать хуже?
                                                                Ну ясен пень стало, тайминги-то старые остались. Так то частота их нивелировала.
                                                                • 0sergeidart | 26 октября 2014 г.
                                                                  Занизил частоту, чтобы новый проц был больше похож на старый.
                                                                  • 0SAXAHOID | 26 октября 2014 г.
                                                                    Синхронизировать сбалансировано частоту процессора, памяти и шины — это довольно весёлая задачка. Скорее всего, у тебя была следующая картина:
                                                                    А) Процессор частоты 2.2 ГГц (для первой серии феномов это средне вроде) + шина частоты 1.8 + память частоты 0.533ГГц, которая на деле 1.066ГТ/с (за счёт двух операций на каждом такте) — первые феномы выше не поддерживают ну никак.
                                                                    В двухканальном режиме получаем "общую" частоту памяти приблизительно 2 ГТ/с. Как видим, память полностью покрывает возможности процессора, и тот лишь слегка обгоняет её (даже если всё, что будет делать процессор — писать из памяти в память, он не забьёт эти 2 ГТ/с двухканального режима, хоть он лопни). Это если бы он был одноядерным — а четырёхядерный забьёт и не подавится, если будет на полную катушку работать. Память и процессор друг другу примерно соответствуют.
                                                                    Б) Процессор частоты... Последний — это чего? Хасвелл? Тогда, кажется, 3ГГц в среднем.
                                                                    Память ДДР3 — частота в среднем 1.6 ГТ/с (максимум для i5), двухканальный режим даёт 3.2 ГТ/с.
                                                                    Что мы видим? Примерно ту же картину: память полностью покрывает возможности процессора.
                                                                    Если же ты скинешь частоту памяти — появляется оверхед памяти, и память (надеюсь, понимаю это верно) тогда у тебя "тащит".

                                                                    А вывод из этого простой: DDR3 сама по себе нафиг никому не нужна, она такая лишь для в теории более удобной синхронизации с новыми процессорами.
                                                                    • 0SAXAHOID | 26 октября 2014 г.
                                                                      ^скинешь частоту памяти^скинешь частоту процессора
                                                                      Да что ж за день такой
                                                                      • 0sergeidart | 26 октября 2014 г.
                                                                        Она быстрее, особенно это видно при загрузке и смене плана, когда из оперативной памяти идёт выгрузка текстур и моделей. И тут как раз могут быть проседания с ДДР2 (особенно в связке с ГТХ 660). Феном был 3,2 ггц. Правда после разгона (начинал с 2,9, максимум гнал до 3,8, потом начались проблемы с шумом и охлаждением (зимой-то было тепло, а открыв окно я мог нехило так охладить компьютер и комнату, а вот летом!), поэтому просто остановился на 3,2). i5 начнает с 3,2, если не запрещать гонит до 3,8 (или 3,6, уже не помню), иногда понижает до 2,5-2,6 (крайне редко, хотя если пошаманить...), один раз задукоментировал частоту в 1,3 ггц (честно говоря, я был в шоке). Но вот чего из цифр явным не станет. Ноутовский i7 3 поколения 8 поточный 4 ядерный с частотой 2,4, максимум 2,7 ггц работает БЫСТРЕЕ, чем i5 4 поколения с большей частотой и в десктопном исполнении. Вот такие вот дела)
                                                                        • 0SAXAHOID | 26 октября 2014 г.
                                                                          Феномов первой серии со стоковой частотой выше 2.6 ГГц в природе не существует.
                                                                          Возможно, это был второй феном? Так изволь, они все ддр3 поддерживают. Ты его на второй держал — он теоретически мог крутить циклы впустую, ожидая отклика памяти. Плохая синхронизация была.

                                                                          >Она быстрее
                                                                          Да никто не спорит, что она технически быстрее. С гигатрансферами вообще спорить глупо.
                                                                          И в бенчмарках, которые грузят только память, гоняя данные туда-сюда по всем доступным потокам она, скорее всего, реально будет быстрее (другой вопрос, что технически загадить пропускную способность даже низкочастотной памяти очень сложно — разве что интегрированной видеокартой).
                                                                          Вот только я не о бенчмарках, а об играх говорю. И в играх вообще не видно разницы между второй и третьей памятью по фпс при прочих равных. Остальное уже мелочи (так и о том, что ССД поднимают производительность, можно заявлять, хотя на деле с них просто ресурсы быстрее грузятся/сторятся).
                                                                          Загрузка — это с диска в память, что ли? Так тут даже самая первая ДДР даст фору любому диску. На то она и оперативная.
                                                                          Или с диска в видеокарту? Тут ещё можно размышлять, конечно, но, насколько мне известно, текстуры держат сразу в памяти карты, а не в оперативной. Иначе нафиг этим картам столько памяти...

                                                                          В общем-то, единственное, для чего нужна скорость памяти — это чтобы процессор не пропускал циклы из-за неё. Потому и появляются новые стандарты: не чтобы в игорах вертелось быстрее, а чтобы более быстрые процессоры выдерживать.

                                                                          >i5 начнает с 3,2, если не запрещать гонит до 3,8
                                                                          8320 начинает с 3.5, гонит до 4 сам и до 5 с помощью биоса, выше с помощью прямых рук, пыщ-пыщ :3
                                                                          Вот только нафига?

                                                                          >работает БЫСТРЕЕ,
                                                                          А чему тут удивляться? Во-первых, кеш (который решает проблемы недобирающей памяти). Во-вторых, софт-то скомпилен под старые архитектуры.
                                                                          Возвращаясь к примеру 8320 и Piledriver: ты в курсе, что процессоры АМД новой архитектуры сильно просаживаются в тестах только потому, что всё скомпилено неудобно для них? Под линуксом эта проблема в принципе решаема пересборкой системы с нужными флагами, и такие решения мне уже доводилось видеть — в "родной" среде пайлдрайверы очень даже офигительно работают.
                                                                          А под виндой попробуй-ка пересобери. При всём желании не выйдет.
                                                                          • 0sergeidart | 26 октября 2014 г.
                                                                            2 гига видеопамяти - это очень мало) Если держаь только то, что в кадре помещается, а если вообще всё - нет.
                                                                            • 0SAXAHOID | 26 октября 2014 г.
                                                                              Интересно, куда у меня тогда всё помещалось, когда получалось играть с самыми лучшими текстурами на 512 видео + 2 рам (и это на седьмой шинде, которая ещё всегда полгиба занятым держала)
                                                                            • Свернуть ветку
                                                                  • Свернуть ветку
                                                        • Свернуть ветку
                                                    • 0Forest_Swamp | 25 октября 2014 г.
                                                      Вот я от друга только что приехал. Воочию посмотрел что у него там с компом, ну и немного в мортал комбат поиграли (хотя, я только ради мортала туда ехал, даже геймпад свой захватил :D Но не суть). В общем рассказываю кул стори:

                                                      Раньше все было круто - солнышко светило, игры работали без проблем, Planetside 2 летал как перышко в ветреную погоду. Но потом судьба сделала ход конем... Друг решил купить монитор с поддержкой 4к... Игры стали лагать даже на минимуме. Разрешение сбавляли, тормозили 3D порыв графики, понижая все что только можно до значений "низко"/"OFF". Лаги оставались. Переткнули монитор из Display Port в HDMI, думая что это поможет (этот момент был по поводу Prime World, так как выдавало ошибку при запуске боя "failed to set display mode"). Частота при подключении через HDMI падала до 30 Гц, что явно не устраивало хозяина компа. Но на игру это никак не влияет вообще. С мортал комбатом тоже беда: когда я пришел, друг уже проходил сюжетку и прям с порога попросил меня пройти бой. Сажусь и вижу нечто... Лаги, slo-mo. Спрашиваю "и ты так играешь?", на что поступил невозмутимый ответ "ну да". После чего стали пробовать то, что описал выше, плюс какие-то моменты использовали под гугл. В общем ничего путного не решили, лаги остались. Есть подозрения, что блок питания слабоват (550, с его слов), но удивительно каким образом он играл со мной в игры без лагов, еще до покупки моника на 4к...

                                                      Спустя какое-то время случилось нечто... За пару часов до моего ухода друг стал умолять поиграть в мортал, ведь итак много времени потратили на попытки решения проблемы. Стали играть и, спустя какое-то время лаги отошли и все стало как должно быть... Как это объяснить, я не знаю.
                                                      • 0Forest_Swamp | 25 октября 2014 г.
                                                        550, с его слов - хотя, если не ошибаюсь, я лично ему брал 600 ватник... Мне нужно было самому проверить, а не верить на слово...
                                                        • 0sergeidart | 26 октября 2014 г.
                                                          Вчера вышли стабильные драйвера для видеокарт)
                                                          • 0Forest_Swamp | 26 октября 2014 г.
                                                            Кстати, насчет драйверов. Стоит ли пользоваться программкой DriverPack Solution или это все туфта?
                                                            • 0sergeidart | 26 октября 2014 г.
                                                              Забей, то что идёт с официальным обновлением - лучше и стабильнее.
                                                            • 0sergeidart | 26 октября 2014 г.
                                                              В лучшем случае, тебе скачается то, что ты и так сам способен скачать.
                                                        • 0sergeidart | 26 октября 2014 г.
                                                          В Т.Ч. Правили проблемы с 4к
                                                          • 0SAXAHOID | 26 октября 2014 г.
                                                            Ну ёлки-палки, я ж говорю: неоптимизирована либо ОС (драйвер — часть ОС), либо игры, либо само железо.
                                                            Оказалась ОС. Дооптимизируют — будет ещё лучше.
                                                            А мне тут про 1.5-3 раза вещают.
                                                            • 0sergeidart | 26 октября 2014 г.
                                                              Тот драйвер, что даёт Nvidia - это не часть ОС, это сторонняя программа)
                                                              • 0SAXAHOID | 26 октября 2014 г.
                                                                Прости, но если ты будешь пытаться рассказывать мне (напомню, драйверы и ОС — это моя специальность) про драйверы — это всё равно что я буду пытаться рассказывать тебе о том, как оптимизировать графику в играх. Или там уровни в тридэ дизайнить.
                                                                Ничего хорошего из этого не выйдет.
                                                                Для справки: драйвер — это такой кусочек кода, который вставляется в "отверстие", специально оставленное под него в ОС, как кусочек пазла туда, где он должен быть. Собственно, по этой причине довольно долго нельзя было использовать одновременно две карты с разными драйверами (да и сейчас это сделать не слишком-то просто, а возможно стало лишь благодаря более сложной, чем "отверстие-кусочек", системе формирования драйверов в виде независимых модулей и т.д.).
                                                                А то, что ты называешь "драйвером Nvidia" — это никакой не драйвер, это центр управления картой. Сюрприз.
                                                                • 0sergeidart | 26 октября 2014 г.
                                                                  То, что я называю драйвер не совсем драйвер и не только центр управления картой - это определение драйвера данное тобой + весь спектр программ, которые помимо всего прочего ещё и упрощают работу пользователя с видеокартой. И да, я согласен, что эпик фейл был в драйвере. Однако, следует помнить, что ОС пишут одни люди, а драйвер совершенно иные. Просто разделением на ОС и драйвер я хотел бы уточнить, что ответственны за глюк зелёные, а не окна)
                                                                  • 0SAXAHOID | 26 октября 2014 г.
                                                                    Ну а никто и не говорил, что кто-то там ответственность несёт. Речь была о том, что не разрешение требует больше ресурсов, а просто отображение на такое разрешение где-то криво реализовано. Либо в ОС (под ОС понимается как голая ОС, так и все модули, т.е. глобально системный софт), либо в игре, либо в самой видеокарте (что-то там не так запаяли, самый жестокий случай).
                                                                    • 0sergeidart | 26 октября 2014 г.
                                                                      Скажем так, последний патч добавляет даже те фичи (а конкретно DSR - видеокарта рендерит в 4к или меньшем разрешении, а тебе выводит в FulHD, суперсемплинг, но, по их словам, на другой бок), которые были представлены, как эксклюзивные для 900-х, ко всем десктопным игровым видеокартам от 500-ой серии.
                                                                  • Свернуть ветку
                                                            • 0sergeidart | 26 октября 2014 г.
                                                              Чуть более, чем на 3. По крайней мере теперь.
                                                              • 0SAXAHOID | 26 октября 2014 г.
                                                                Т.е. когда были лаги — ты говорил 1.5-3, когда лагов не стало — ты говоришь уже больше 3-х.
                                                                Не понимаю.
                                                                • 0sergeidart | 26 октября 2014 г.
                                                                  А я, кстати, уже линию обсуждения потерял( Я даже не помню, как это писал.
                                                                  • 0SAXAHOID | 26 октября 2014 г.
                                                                    Мде.
                                                                  • 0Usernm | 26 октября 2014 г.
                                                                    Не удивительно, все эти полосочки черт знает что показывают. Не хватает кнопки как на хабре, перейти к предыдущему сообщению.
                                                                  • Свернуть ветку
                                                        • Свернуть ветку
                                                      • 0Usernm | 26 октября 2014 г.
                                                        Сколько я помню hdmi заточено под 1920х1080 и в лучшем случае 2.5к на 1.4к. Дальше пропускной способности кабеля не хватит.
                                                        • 0sergeidart | 26 октября 2014 г.
                                                          Дисплей порт точно справляется, HDMI тоже должен!
                                                          • 0SAXAHOID | 26 октября 2014 г.
                                                            Hdmi: Bitrate Up to 18 Gbit/s in HDMI 2.0
                                                            DP/Mini DP: Bitrate 1.62, 2.7, 5.4, or 8.1 Gbit/s data rate per lane; 1, 2, or 4 lanes; (effective total 5.184, 8.64, 17.28, or 25.92 Gbit/s for 4-lane link)

                                                            18 Gibit vs 26 Gibit
                                                            Разница очевидна
                                                        • Свернуть ветку
                                              • Свернуть ветку
                                    • Свернуть ветку
                          • Свернуть ветку
                • Свернуть ветку
    • 0SAXAHOID | 25 октября 2014 г.
      Да там и минимальная практически топовая, для АМД во всяком случае.
      Будет без проблем запускаться на системах вдважды слабее, гарантирую
  • 0FruitGish | 25 октября 2014 г.
    Лалки, у меня Nvidia GeForce GT610 (Не GTX!) и FullHD монитор =D
    • 0sergeidart | 25 октября 2014 г.
      У тебя точно не пойдёт, успокойся)
    • 0Usernm | 26 октября 2014 г.
      Я только не понял, что ты хочешь сказать.