А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
09:24 не путайте формат архива и сжимающий алгоритм. zip использует алгоритм deflate по умолчанию. Его же может использовать 7zip. rar использует перверсию LZ77, коей является и LZ4. Еще раз: deflate, snappy и LZ4 - это алгоритмы сжатия (они используются не только в файлах, но, например, при передаче данных в интернете, сжатии оперативки и тд), а rar, 7z, zip - это форматы файлов, которые используют эти (или другие) алгоритмы.
Чуть уточню, вернее сказать, что rar, 7z, zip - это формат контейнера для хранения компрессии. А в нем может использоваться разные алгоритмы, в т.ч. более одного внутри одного контейнера (хотя это конечно редкая специфика).
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах. Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
@@TheGloriousRussian Ну почему же! Зайдите в статистику Стим и вы очень удивитесь тому железу, которое использует среднестатистический геймер. 90% всех игроков это как раз средние сборки до 50к. Получается по вашей логике 90% всех игроков и в том числе подписчиков этого канала - Бомжи?!
@@Lucky-ge6ulпо меркам тру геймеров - да. Вот по моим например. В смысле, не те бомжи, которые на улицах пьяные и грязные, это именно в разрезе денег, которые человек выделяет на игры. Такой геймерский бич со слабым ультрабуком для игр, может владеть условным БМВ пятой серии в максималке. Но играет как бич 😂
@@Lucky-ge6ul мне как-то говорили, что игровых ноутбуков не существует, потому что они не тянут хотя бы 2к на ультрах. И вряд ли комп за 50к можно будет назвать игровой сборкой
@@FormJuneсборка для игр = игровая сборка. Тот же ноут с дискреткой нужен либо для специфических задач, что малая часть, либо для игр. Так почему он не игровой?
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-. единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@Rimmon42 смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу. а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально. в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений). если прям совсем кратко: честно работать - много работать (лучшее качество). "не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее) надеюсь,сумел объяснить.
>> Как это работает? Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр. Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
Каждый "реальный" новый кадр рисуется с нуля, заново полностью обсчитывая всё освещение и геометрию. Улучшить или достроить по подобию всегда проще, чем делать всё с нуля.
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
@@prunky12те же 80, просто в литографии им не повезло. Это же как с ЦПУ, есть i3/5/7/9 или r3/5/7/9, абсолютно одинаковые по архитектуре, просто часть ЦП отключена на аппаратном уровне, так как во время тестов, после самого процесса сборки чипа в единое целое, выясняется, что какой-то чип плохо работают, где-то достаточно хорошо и тд. Вот из этого по сути и рождаются 3-5-7-9, также и с ГПУ, на одной пластине сотня чипов, кто-то лучше, кто-то хуже - разделили от 4050 до 4090 их и все.
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
Возможно словосочетание "полупрофессиональные карты" действительно имеют смысл для определения чего то среднего между геймерами и инженерами которые на картах проводят сложные исчисления. Например как я кто вроде и не любитель, потому что делаю графику для кино, но и не сказать что профи, который реально чём-то значимым занимается. Насчёт топовых процов 9950x3d как минимум мне точно непомешает больше кеша во всех ядрах, потому что х3д кеш по идее должен сильно помогать в симуляциях но на деле просчёт на 7950х3д упирается в остальные ядра (симуляции ткани и воды всё ещё корректно обрабатываются лишь на процессорах, так что топовые райзены для этих задач очень полезны, в отличии от тредрипперов, которые из-за медленной шины и меньшей частоты оч сильно тормозят все процессы)
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
Я может быть идиот, но объясните мне (скрин с 1:20): а как 5080 на 16гб может быть равна по шине и пропускной способности 5080 на 24гб? будет прикол с компоновкой чипов памяти, как в старые добрые, или это у источника огрехи в описании товара?
Не, ну оно всё круто конечно, только один вопрос. Где игры-то? Опять выпустят очередной патч для киберпанка? Где GTA6, ведьмак 4, Крайзис 4, пару гонок прикольных. Ну или самое невероятное, сделать возможность прикрутить тесселяцию, заапскейлить текстуры и прочие улучшалки для старых игр. Искуственный интеллект и нейросети или где? А пока, заказал очередной комплект термопрокладок да переобслужу старушку Strix 3090 Ti, видимо, нам с ней ещё года два жить.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
Да не опоздание с видюхами главная причина провала (хотя оно конечно крайне значимо, но все же), а дибилизм руковоителей, которые живут в каком-то своем мирке и не способны осознать, что именно их действия являются причиной основной части провалов, а не нерадивые исполнители, внешние обстоятельства и так далее. Ну вот ведь не спад майнинг-бума заставил синих пытаться продавать свои сырые поделки по цене радеонов и джифорсов, верно ведь? А это абсолютный нонсенс -- пытаться ворваться на сформированный рынок без конкурентного преимущества и не демпингуя. Что-то одно в любом случае должно быть. Приводить цены к средним по рынку можно когда ты уже занял долю этого самого рынка и твой бизнес обрел стабильность. Когда синие ставят ценник на свою видюху как на сопоставимую нвидию, то я ее не покупаю ее не только потому, что жалко денег (за очевидно проигрывающий в моменте продукт из-за сырости и отсутствия адаптации сторонних решений), но в первую очередь из-за того, что предполагаю что на таких условиях ее не купит примерно ни кто другой, а это значит что сторонние решения адаптироватсья под используемые тремя калеками видюхи не станут, а сам интел не будет вкладывать усилия в продукт, который не только не приносит денег в моменте, но и не имеет пользовательской базы, а значит и дрова так и останутся сырыми... Замкнутый круг, который виден любому, кто задумается над вопросом дольше чем на 30 секунд. Но не руководителям интела(( Если бы хватило мозгов инвестировать в занятие рынка, продавая свои решения процентов эдак на 30% дешевле чем просят конкуретны за аналогичную производительность, то сейчас занимали бы значительную долю рынка не смотря ни на какой спад майнинга. Но нет, лучше списать инвестицыи на разработку в убытки, чем поработать в минус и потом долгие годы снимать сливки... Вместо этого лучше сольем проект и на очередном пике прибыльности гпу опять бросимся догонять снова ушедший поезд. Гении.
А я жду рефабов АМД - дешево и сердито! Для игр норм. Тысяч на 5 дешевле оригинала и ещё на 2-3 "аналога" эНННвидиа. Взял 6700 на 10гб за 19к и жду подобного предложения.
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
Так в новом приложении от nVidia streaming по средством Nvidia Shield или неофициального moonlight убрали, зачем оно теперь нужно? Я только для этого использовал. Там стальное шляпа полная. Зачем менять настройки в игре на те которые не предусмотрел разработчик, можно себе впечатление о игре испортить. Драйвера вручную вполне можно установить, да я автоматически никогда их и не ставил. Вообще не люблю что-то обновлять если работает. Если что-то не устраивает например в новой игре можно попробовать и обновить.
Расскажи-ка дядя как 5080 на 24 может приблизиться к 40890 если ее характеристики идентичны 5080 16? Если только ей не напихают больше куда ведь как мы знаем на одном и том же чипе от бОльшего количества памяти ни тепло ни холодно. Привет тестом викона 3070 с 16 гб в своё время вместо 8
Видел Honor magicpad 2 на стенде в магазине, мне очень понравился дизайн и дисплей, а да еще звук объемный да и по такой цене вне конкуренции на мой взгляд
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Блин, ну почему в RTX 5080 не сделали хотя бы 15000 куда-ядер? Если не брать в расчёт память - карточка такая же как RTX 4080 Super. Какой тогда в ней смысл?
5080-5090, будет проходная видеокарта всё будут закупаться 4090, и тд на них будет спрос и он будет расти и цена в след за ним плюс девальвация рубля и инфляция.
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
Отличный момент, что бы амуде заняли именно потребительский рынок со средне бюджетниками, а то Хуанг уже совсем ахуангел. Смотрю последние пару лет на всю эту кутерьму с длсс и все больше прихожу к выводу, что 7800XT нынче самый оптимальный (и даже больше) вариант для 90% пользователей за более менее адекватную цену
На самом деле это ожидаемо. В стандарте 12VHPWR как раз таки заложены эти самые 600W. То есть то, что раньше было по ATX стандарту на обычном PCI-e проводе (4-6-8 pin) и вставлялось в GPU, например 1080 Ti требует 2x8 pin коннектора, теперь заменено на 12VHPWR, вместо 4-х проводов от БП, для подключения 4090, мне достаточно использовать всего 1. А тут сразу же рождается вопрос, почему бы не заполнить этот 1 провод на 100%, если там доступно 600W, значит я могу их использовать. Дальше мы будем развиваться а том же направлении, 6090/7090 и тд могут требовать уже 12VHPWR*2 где будет потребление все 700W-1200W.
Ну если карта будет жрать киловатт с лишним, там уже вопрос к стоимости электричества, в мире не как в рф, где электричество чуть ли не беслатное, в других странах киловатт на одну карту может быть критичен@@chopped_dolphin
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку. Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
в худшем случае на несколько тысяч больше будешь платить за электричество, но учитывая цену 4090 и потенциальную цену 5090, это копейки для человека который сможет ее себе позволить.
@@sektor_glaza187 Так больше чем за отопление, за электричество платил 3500 а стало 11 500, а за отопление 8 000. и по моему это проблемные карточки, если сидеть за ней целый день гонять в игрушки, по мне так я расматриваю 4060ti на 16гб, она не прожорливая и тянет всё, ну пускай гдето не в 4К если что касается игр и работать нормально она позволяет, а 4080 можно уделить на финальные работы так гдето с часик, два, так ещё нормально это я уже говорю про 3D графику
@@MrMedk Ну есть люди которые копят деньги и не обязательно что такие карточки покупают только состоятельные люди, а когда покупают сталкиваются вот с такой проблемой, я лично столкнулся, выше я написал как лично я нашёл выход из такого положения, как её можно более рационально использовать, может мой опыт кому ни будь пригодится
@@sergey5138 Ну это уже проблема людей которым на жизнь не хватает, а они покупают карточку за несколько сотен тысяч.. С тем же успехом можно говорить, что айфон говно потому что память кончается если снимать видео в 4к все подряд покупая айфон за 250к и при этом живя в доме без центральной канализации..
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю. Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
У меня 11900 (читай тот же 11700 только чуть большим кэшем) не может раскрыть даже 7800хт в 2к. Про 4090 я уж молчу, но она в паре с 7800хзд работает и он её тоже не везде может нагрузить на полную.
да, история с 3д кэшем получилась очень удачно как минимум для игр. посмотрим насколько они надежны со временем. разу уж интеловские алдерлейки отваливаться стали
Начиная с 4000 серии чем больше слышу про видеокарты Nvidia, тем больше хочу пересесть на AMD. Сейчас на 2070 Super и проблем в общем-то не испытываю, потому как играть некогда ;( да и в новые игры не то что играть скучно, там даже на геймплей смотришь и зеваешь - "это уже было". Так что DOS-квесты, тем более что DOSBox Staging последнее время прямо расцвёл.
Ну и пузырь лопнет. Спрос рождает предложение. Сейчас спрос есть, вот и предложение выходит. Когда мы, как стандартный потребитель, перестанем покупать новые железки - тогда и предложение снизится и рыночная цена тоже. Но тут же надо понимать, что они цену берут не из головы. Чем больше ты производишь товара в штуках - тем меньше стоит каждая отдельная единица этого товара. Сейчас все производства заняты в сегменте ИИ и клепают, на мой взгляд, где-то 75% чипов под ЦОДы и бизнес сегмент. Те 25% оставшиеся это все остальное, то есть и пользовательский сегмент, вот отсюда и цена на какую-нибудь 5070 Ti Super будет выше, чем хотелось бы. Во времена выхода 9-й и 10-й серии GPU у NVidia были мощности загружены на те же 80% в сторону GPU пользовательского сегмента вот тогда и цена на них была ниже, в абсолютных значениях.
ПК всегда будут нужны, пока игры можно качать бесплатно. Вот если бы новые консоли сразу чипировали и можно было игры пиратить, то да, ПК был бы под вопросом.
@@chopped_dolphin _"Когда мы, как стандартный потребитель, перестанем покупать новые железки - тогда ..."_ ... повысятся цены на средние видеокарты, куртка и ко давно выкупили эту тему: зачем тратится на топ железо, если можно за цену старого топа продать середнячок ;)
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее, это так себе совет.
Для рендера, работы, нейросетей, сделанных самим, также для игр в 4к с лучами... В принципе 32 сейчас это как раз конец. выше после 32 как раз на дом не надо
а так же app будет отслеживать куда вы заходите, что делаете и во что играете, никогда не ставил экспириенс с кучей мусора , только чистый драйвер обновлял
с 1070 смысл был переходить на 3070. с 2070 на 4070. Лучше 4070 TI Super. Будет ли смысл переходить с 4070 на 5070? Пока не знаю, но учитывая цену - не уверен.
Я переходил как раз с 1070 на 3070 и скажу так, не было смысла))) А вот 3070 на 4090 я заменил очень удачно (сбермегамаркет расщедрился что-то в то время и насыпал за покупку бонусов прям очень круто. У меня 4090 вышла в 100к, а 7800хт вышла в 16к вообще.
Детальный разбор кофейной гущи.
Лучше и не скажешь
Народ ещё верит в 50-ю линейку , это хайпа ради. Новость ради новости.
А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
09:24 не путайте формат архива и сжимающий алгоритм. zip использует алгоритм deflate по умолчанию. Его же может использовать 7zip. rar использует перверсию LZ77, коей является и LZ4. Еще раз: deflate, snappy и LZ4 - это алгоритмы сжатия (они используются не только в файлах, но, например, при передаче данных в интернете, сжатии оперативки и тд), а rar, 7z, zip - это форматы файлов, которые используют эти (или другие) алгоритмы.
Как кодек видео и его расширение(формат)
Чуть уточню, вернее сказать, что rar, 7z, zip - это формат контейнера для хранения компрессии. А в нем может использоваться разные алгоритмы, в т.ч. более одного внутри одного контейнера (хотя это конечно редкая специфика).
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
Lz4 поддерживается форком 7zipZS, мб завезут потом и GPU
Это когда непрофессионал берется обсуждать профессиональные темы.
Ну так-то на самом скрине ошибка, там перечисляются форматы.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах.
Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
Да этим чего только не сжимается и текстуры и архиваторы работают по ним и ещё куеву хучу всего.
Мне нравится фраза "Сбалансированный вариант для геймеров" - Процессор по цене всей игровой сборки!
Ну если только по цене для игровой сборки бомжа
@@TheGloriousRussian Ну почему же! Зайдите в статистику Стим и вы очень удивитесь тому железу, которое использует среднестатистический геймер. 90% всех игроков это как раз средние сборки до 50к. Получается по вашей логике 90% всех игроков и в том числе подписчиков этого канала - Бомжи?!
@@Lucky-ge6ulпо меркам тру геймеров - да. Вот по моим например. В смысле, не те бомжи, которые на улицах пьяные и грязные, это именно в разрезе денег, которые человек выделяет на игры. Такой геймерский бич со слабым ультрабуком для игр, может владеть условным БМВ пятой серии в максималке. Но играет как бич 😂
@@Lucky-ge6ul мне как-то говорили, что игровых ноутбуков не существует, потому что они не тянут хотя бы 2к на ультрах. И вряд ли комп за 50к можно будет назвать игровой сборкой
@@FormJuneсборка для игр = игровая сборка. Тот же ноут с дискреткой нужен либо для специфических задач, что малая часть, либо для игр. Так почему он не игровой?
Ждём пятую серию чтобы купить четвертую)
Такая короткая рекламная вставка, что не успел перемотать 🤣
была правда вставка про honor, но она вроде даже как интересная была и не сильно выделялась в видео
При упоминании студенческих лет надо было фоточку приложить патлатую :)
А если он раньше всю молодость брился наголо?
Купить 5090 и играть с дллс и генерацией ультимативный гейминг от хуанга😂
Если картинка не отличима или близка к нативу то какая разница?
@@Fantomas24ARM Разница в том, что картинка как раз таки отличается в нативе и в постобработке.
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
Инженеры нвидиа. Наш чип полное г. Хуанг. Делаем dlss 4.0. 😎
Тестил? @@Fantomas24ARM
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-.
единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@Rimmon42 смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу.
а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
@@ivan2go1 там не всегда так, я вот взял 7800хт за 16к, если учитывать кэшбэк. Но это надо искать и чекать кучу продавцов.
Вообще не вижу смысла в этом DLSS. Лучше снизить немного настройки в 4К, чем включать это мыло. Первым делом выключаю эту опцию в играх.
Какое же замечательное качество картинки в роликах! Просто перфекто! Спасибо за кайф для глаз) Как минимум)
Толку то большинство уже смотрят в 720p
@@ZhelezniyDrovosek В 480p на второй скорости☝😌
Илья, спасибо за наконец-то нормальное видео) интересно, без "воды"
Почему нарисовать дополнительные кадры между реальными менее затратно, быстрее и проще, чем еще один реальный кадр? Как это работает?
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально.
в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений).
если прям совсем кратко:
честно работать - много работать (лучшее качество).
"не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее)
надеюсь,сумел объяснить.
>> Как это работает?
Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр.
Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
Если кратко: не жрет дополнительные ресурсы компа = кадры даром. За настоящие кадры придется платить и достаточно дорого, включая проц и оперу.
Каждый "реальный" новый кадр рисуется с нуля, заново полностью обсчитывая всё освещение и геометрию. Улучшить или достроить по подобию всегда проще, чем делать всё с нуля.
Deflate -- это ZIP и есть.
там где в названии присутствует "профессиональный", ценник минимум х2 сходу..
Интересный и информативный ролик вышел. Давно такого от Ильи не было. Спасибо
Илья молодца, спс за обзор:))++
Драйвера Нвидии это бич последних пары лет, стараюсь обновлять их не чаще 1 раза в полгода.
Спасибо за отлиный выпуск новостей!
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
у меня есть титан v топовый до сих пор может 3д графику и т.д быстро обработать...а карте 6 лет причем!!!
не титан всегда на 100 чипах делался а 90 на 102 делают так что 90 это бывшие 80
@@Ostireon а 80 это тогда что?
@@prunky12те же 80, просто в литографии им не повезло. Это же как с ЦПУ, есть i3/5/7/9 или r3/5/7/9, абсолютно одинаковые по архитектуре, просто часть ЦП отключена на аппаратном уровне, так как во время тестов, после самого процесса сборки чипа в единое целое, выясняется, что какой-то чип плохо работают, где-то достаточно хорошо и тд. Вот из этого по сути и рождаются 3-5-7-9, также и с ГПУ, на одной пластине сотня чипов, кто-то лучше, кто-то хуже - разделили от 4050 до 4090 их и все.
Zbrush не использует видеокарту...
Но хочу уточнить!Я бы купил бы RTX 4090 после выхода 5000 серий но они производство остановили🥺А значит будут только RTX4090 бу или с завышеным ценам!
Если 5080 будет ~4090, то и стоить будет также. Куртка же сказал что теперь продаёт не тиры карт, а "единицы призводительности"
Нельзя будет такую 5080 в Китай продать, по этому будет чуть слабее 4090.
Ждём 7060 за 2к баксов.
@@AlexCoachman
Не куртка а Кожаный
Жаль за карты от синих, еслибы все получилось, то мейби и зеленые с красными подешевели бы.
у меня джедай 2 заработал только на старых дровах, на всех новых и рекомендуемых постоянные вылеты rtx 3080
18:36 будет как подогрев сидений в бмв - по подписке включаться 😂
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
какая разница, если весь смак в новом длсс будет, если оно не будет поддерживаться в 40xx. А если будет, то и нафиг новую покупать)
Когда ГТА выйдет на ПК уже может быть 6000 и 7000 серии инвидиа, тогда уже 7600 порвёт эту 4080.
а сейчас какая видеокарта?
@@Rimmon42 В конце 25-го года только на консолях она будет?
@@-MohammedElSyed- я тебе даже больше скажу, есть шанс, что её перенесут на 26 год и далеко не малый шанс, что она будет только на плейстейшине.
Возможно словосочетание "полупрофессиональные карты" действительно имеют смысл для определения чего то среднего между геймерами и инженерами которые на картах проводят сложные исчисления. Например как я кто вроде и не любитель, потому что делаю графику для кино, но и не сказать что профи, который реально чём-то значимым занимается. Насчёт топовых процов 9950x3d как минимум мне точно непомешает больше кеша во всех ядрах, потому что х3д кеш по идее должен сильно помогать в симуляциях но на деле просчёт на 7950х3д упирается в остальные ядра (симуляции ткани и воды всё ещё корректно обрабатываются лишь на процессорах, так что топовые райзены для этих задач очень полезны, в отличии от тредрипперов, которые из-за медленной шины и меньшей частоты оч сильно тормозят все процессы)
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
А DLSS 4.0 не будет на 40-й оенейки поскольку для этого нужно будет обязательно купить 50-е поколение еврейский ✡️ принцып работает всегда )))
также как и генератор кадров на 30 серии не работает аппаратно, хотя физически это возможно, просто произошел эффект энвидия)
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
@@KommunistDelux я тоже того же мнения. но мне пришлось взять 3080, поскольку RX того же уровня производительности на авито в моем городе не было
не понял, а когда это успели РТ в рдр2 прикрутить то???
Я может быть идиот, но объясните мне (скрин с 1:20): а как 5080 на 16гб может быть равна по шине и пропускной способности 5080 на 24гб? будет прикол с компоновкой чипов памяти, как в старые добрые, или это у источника огрехи в описании товара?
Не, ну оно всё круто конечно, только один вопрос. Где игры-то? Опять выпустят очередной патч для киберпанка? Где GTA6, ведьмак 4, Крайзис 4, пару гонок прикольных. Ну или самое невероятное, сделать возможность прикрутить тесселяцию, заапскейлить текстуры и прочие улучшалки для старых игр. Искуственный интеллект и нейросети или где? А пока, заказал очередной комплект термопрокладок да переобслужу старушку Strix 3090 Ti, видимо, нам с ней ещё года два жить.
Лучше 4070 Ti SUPER
Герои 3 всегда будут с нами, не важно 3090 или 10990 ;)
Выпуск Ильи без политики! Вот это праздник!)
ахахах
И много у него политики?Или здесь замечаем,а там не замечаем?
@@antiliberas Успокойся. Это полушутка
Помимо того, что Хуан - жёлтый.
Само название Nvidia образовано от латинского invidia - зависть, один из семи смертных грехов. Символично. :)
Пора уже переименовать в жадность.
А как по латински похоть? Мне кажется для нвидии это более подходящее имя. Нвидию все хотят.
Мимо 4070тисуп.
@@Za_Tovarischa_Putina
Luxuria
Зеленый еще является антиподом красного) Что вписывается в извечное противостояние Нвидиа против АМД(АТИ).
Был логотип что-то между жёлтым и зелёным - это же явно салатовый оттенок 😂
Это же Фаундерс Эдишен будет 600w а какая нибудь Rtx 5090 asus power gaming pro $ OC будет 800w потреблять
Не будет, коннекторы у блоков рассчитаны под определенную нагрузку. Тебе же чётко сказали, что 2 по 16 не будет.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 так ты 4к поставя и увидишь как она в теплопакет долбится
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
@@Rimmon42 Хуанг сказал ?
Да не опоздание с видюхами главная причина провала (хотя оно конечно крайне значимо, но все же), а дибилизм руковоителей, которые живут в каком-то своем мирке и не способны осознать, что именно их действия являются причиной основной части провалов, а не нерадивые исполнители, внешние обстоятельства и так далее. Ну вот ведь не спад майнинг-бума заставил синих пытаться продавать свои сырые поделки по цене радеонов и джифорсов, верно ведь? А это абсолютный нонсенс -- пытаться ворваться на сформированный рынок без конкурентного преимущества и не демпингуя. Что-то одно в любом случае должно быть. Приводить цены к средним по рынку можно когда ты уже занял долю этого самого рынка и твой бизнес обрел стабильность. Когда синие ставят ценник на свою видюху как на сопоставимую нвидию, то я ее не покупаю ее не только потому, что жалко денег (за очевидно проигрывающий в моменте продукт из-за сырости и отсутствия адаптации сторонних решений), но в первую очередь из-за того, что предполагаю что на таких условиях ее не купит примерно ни кто другой, а это значит что сторонние решения адаптироватсья под используемые тремя калеками видюхи не станут, а сам интел не будет вкладывать усилия в продукт, который не только не приносит денег в моменте, но и не имеет пользовательской базы, а значит и дрова так и останутся сырыми... Замкнутый круг, который виден любому, кто задумается над вопросом дольше чем на 30 секунд. Но не руководителям интела(( Если бы хватило мозгов инвестировать в занятие рынка, продавая свои решения процентов эдак на 30% дешевле чем просят конкуретны за аналогичную производительность, то сейчас занимали бы значительную долю рынка не смотря ни на какой спад майнинга. Но нет, лучше списать инвестицыи на разработку в убытки, чем поработать в минус и потом долгие годы снимать сливки... Вместо этого лучше сольем проект и на очередном пике прибыльности гпу опять бросимся догонять снова ушедший поезд. Гении.
А ещё говорят богатые они потому богаты что умные!
Ан нет не всё так просто)
А я жду рефабов АМД - дешево и сердито! Для игр норм. Тысяч на 5 дешевле оригинала и ещё на 2-3 "аналога" эНННвидиа. Взял 6700 на 10гб за 19к и жду подобного предложения.
19:29 это хорошо. вот когда я пошел работать летом после первого курса, то это были деньги на то, чтобы оплатить многолетние долги за квартплату
И опять ни слова про FP64 на новых картах NVIDIA. Какая производительность при вычислениях на двойной точности на куда-ядрах Blackwell?
Когда- то процы считались кипятильниками. Теперь -видео - кофеварки))
была у меня 4090 отапливала зимою при закрытом окне в свои 450W всю комнату а тут до 600W поднимут, пипец печка.
А что там с эти новаторским и крутым сжатием текстур в играх, с минимальными потерями в качестве?
2:49 Что там вместо процессора? Почему охлаждение воздушкой?
4:23 плюс наша розница 50% 😂
попробуй покупать не в днс :)
@@ivan2go1 спасибо, но гарантия это гарантия
@@Amdur88 гарантия не только в днс есть))
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
@@Amdur88нет никаких гарантий, что ты завтра проснешься
Жёлтый и красный - это уже эмендемс какой-то 😃
5090 будет стоить не дороже пирожка в школьной столовой?
Так в новом приложении от nVidia streaming по средством Nvidia Shield или неофициального moonlight убрали, зачем оно теперь нужно? Я только для этого использовал. Там стальное шляпа полная. Зачем менять настройки в игре на те которые не предусмотрел разработчик, можно себе впечатление о игре испортить. Драйвера вручную вполне можно установить, да я автоматически никогда их и не ставил. Вообще не люблю что-то обновлять если работает. Если что-то не устраивает например в новой игре можно попробовать и обновить.
подскажите староверу майнинга, а что она даст в майнинге то, на eth и rvn итд ? :))
А кокой БП понадобится для 5090?
9:31 Так Deflate и используется в zip. А RAR и LZMA(7z) слишком сложны, требуют дохрена памяти, так что аппаратной поддержки ожидаемо не будет.
Расскажи-ка дядя как 5080 на 24 может приблизиться к 40890 если ее характеристики идентичны 5080 16? Если только ей не напихают больше куда ведь как мы знаем на одном и том же чипе от бОльшего количества памяти ни тепло ни холодно. Привет тестом викона 3070 с 16 гб в своё время вместо 8
Кто сказал, что она приблизится?
@@ИзяШмуль послушай внимательнее анализ в начале видео
ждем новую волну сгоревших коннекторов на 5090
Ура новый ролик
Еще бы эту древнюю панель управления интегрировали бы в это эпп. Было бы хорошо.
Зачем им делать 5090 если запрещают в том же Китае 4090?
По сухой производительности похоже сильного прироста в 5080 не будет, судя по количеству блоков. А по технологиям и не знаешь чего ждать.
Видел Honor magicpad 2 на стенде в магазине, мне очень понравился дизайн и дисплей, а да еще звук объемный да и по такой цене вне конкуренции на мой взгляд
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Блин, ну почему в RTX 5080 не сделали хотя бы 15000 куда-ядер? Если не брать в расчёт память - карточка такая же как RTX 4080 Super. Какой тогда в ней смысл?
чтобы юзеры думали в стиле "еще чуть накопить и купить топ"
Дыэлэсэс 4.0
5080-5090, будет проходная видеокарта всё будут закупаться 4090, и тд на них будет спрос и он будет расти и цена в след за ним плюс девальвация рубля и инфляция.
Вот только только обновил драйвера, полгода не обновлял, а тут видос :/
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
интел со своими видеокартами как в народной мудрости: закупились на хаях прокатились на ...
А разьёмы питания будут булькать горячей пластмассой? ))))
Из керамики небось сделают.
Отличный момент, что бы амуде заняли именно потребительский рынок со средне бюджетниками, а то Хуанг уже совсем ахуангел.
Смотрю последние пару лет на всю эту кутерьму с длсс и все больше прихожу к выводу, что 7800XT нынче самый оптимальный (и даже больше) вариант для 90% пользователей за более менее адекватную цену
*600 W ! Следующему поколению 6090 нужно атомную электростанцию что ли брать*
На самом деле это ожидаемо. В стандарте 12VHPWR как раз таки заложены эти самые 600W. То есть то, что раньше было по ATX стандарту на обычном PCI-e проводе (4-6-8 pin) и вставлялось в GPU, например 1080 Ti требует 2x8 pin коннектора, теперь заменено на 12VHPWR, вместо 4-х проводов от БП, для подключения 4090, мне достаточно использовать всего 1. А тут сразу же рождается вопрос, почему бы не заполнить этот 1 провод на 100%, если там доступно 600W, значит я могу их использовать. Дальше мы будем развиваться а том же направлении, 6090/7090 и тд могут требовать уже 12VHPWR*2 где будет потребление все 700W-1200W.
Ну если карта будет жрать киловатт с лишним, там уже вопрос к стоимости электричества, в мире не как в рф, где электричество чуть ли не беслатное, в других странах киловатт на одну карту может быть критичен@@chopped_dolphin
в комнате обогревательная батарея 475Вт, получается зимой надо будет кондиционер включать чтобы жарко не было, а летом запасаться азотом для игры
@@reinsolar5977 в США электричество в два раза дороже как и бензин, но зп в 7 раз выше)
@@xyzw777 ну по такой логике обычный дешевый фен на полтора киловата должен нагревать всю квартиру
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
Привет я купил бу gtx 1080 8gb, рад до невозможия)
Как же хорошо у меня ребёнок засыпает под ваши видео)))
Попробовал я генерацию от красных, по цифрам прирост хороший, но по ощущениям стало хуже, еще и мыло😅
Вы уже определитесь: директ или дайрект :-) В каждом выпуске по-разному произносите. Оба варианта правильные, но всё же.
Мне, как обладателю SFF PC куда я смог вкорячить 4090 (впритык), очень интересно каких размеров будет 5090))
слышал слух что 5080 будет стоить дешевле чем 4080 на старте,тут говорят дороже ,как же долго ждать январь.
ребята, спасибо)
осталось понять что нового в app по сранвнеию с экспириенс 🤔
Что они так прилипли к 16-пиновым коннекторам? Как такой дохляк может в одиночку тянуть 600W не перегорая? Не риторический вопрос.
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку.
Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
За отопление вот тут сумма огромная.
в худшем случае на несколько тысяч больше будешь платить за электричество, но учитывая цену 4090 и потенциальную цену 5090, это копейки для человека который сможет ее себе позволить.
@@sektor_glaza187 Так больше чем за отопление, за электричество платил 3500 а стало 11 500, а за отопление 8 000. и по моему это проблемные карточки, если сидеть за ней целый день гонять в игрушки, по мне так я расматриваю 4060ti на 16гб, она не прожорливая и тянет всё, ну пускай гдето не в 4К если что касается игр и работать нормально она позволяет, а 4080 можно уделить на финальные работы так гдето с часик, два, так ещё нормально это я уже говорю про 3D графику
@@MrMedk Ну есть люди которые копят деньги и не обязательно что такие карточки покупают только состоятельные люди, а когда покупают сталкиваются вот с такой проблемой, я лично столкнулся, выше я написал как лично я нашёл выход из такого положения, как её можно более рационально использовать, может мой опыт кому ни будь пригодится
@@sergey5138 Ну это уже проблема людей которым на жизнь не хватает, а они покупают карточку за несколько сотен тысяч..
С тем же успехом можно говорить, что айфон говно потому что память кончается если снимать видео в 4к все подряд покупая айфон за 250к и при этом живя в доме без центральной канализации..
Почему Амуде до сих пор молчит, пора бы уже хоть что-то выдать, старое поколение уже совсем не тянет!
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю.
Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
Ура, снова течки!
Интересно смотреть в прошлое 😂
простите за грубость, но это полезное и интересное видео, которое без борадача
Чип 11700 раскроет карту 4090 или надо менять систему в целом?
Зависит от разрешения, в 4к скорее всего да
свидетели раскрытия
А если и не раскроет на 15%, то что с того? ФПС и так за глаза будет, в прямом смысле слова!
У меня 11900 (читай тот же 11700 только чуть большим кэшем) не может раскрыть даже 7800хт в 2к. Про 4090 я уж молчу, но она в паре с 7800хзд работает и он её тоже не везде может нагрузить на полную.
@@blablabla4136 4к разрешение, 200% масштабирование и вперед смотреть на загрузку
да, история с 3д кэшем получилась очень удачно как минимум для игр. посмотрим насколько они надежны со временем. разу уж интеловские алдерлейки отваливаться стали
Начиная с 4000 серии чем больше слышу про видеокарты Nvidia, тем больше хочу пересесть на AMD. Сейчас на 2070 Super и проблем в общем-то не испытываю, потому как играть некогда ;( да и в новые игры не то что играть скучно, там даже на геймплей смотришь и зеваешь - "это уже было". Так что DOS-квесты, тем более что DOSBox Staging последнее время прямо расцвёл.
Хороших игр мало. Компьютерные железки каждый год растут в цене. Такими темпами компьютеры просто будут ненужны простым смертным
Ну и пузырь лопнет. Спрос рождает предложение. Сейчас спрос есть, вот и предложение выходит. Когда мы, как стандартный потребитель, перестанем покупать новые железки - тогда и предложение снизится и рыночная цена тоже. Но тут же надо понимать, что они цену берут не из головы. Чем больше ты производишь товара в штуках - тем меньше стоит каждая отдельная единица этого товара. Сейчас все производства заняты в сегменте ИИ и клепают, на мой взгляд, где-то 75% чипов под ЦОДы и бизнес сегмент. Те 25% оставшиеся это все остальное, то есть и пользовательский сегмент, вот отсюда и цена на какую-нибудь 5070 Ti Super будет выше, чем хотелось бы. Во времена выхода 9-й и 10-й серии GPU у NVidia были мощности загружены на те же 80% в сторону GPU пользовательского сегмента вот тогда и цена на них была ниже, в абсолютных значениях.
После 3го ведьмака , скайрима и фолыча 4 того - не могу играть даже в Гот оф Вар ... каким то дерьмом кажется .
ПК всегда будут нужны, пока игры можно качать бесплатно. Вот если бы новые консоли сразу чипировали и можно было игры пиратить, то да, ПК был бы под вопросом.
@@chopped_dolphin _"Когда мы, как стандартный потребитель, перестанем покупать новые железки - тогда ..."_ ... повысятся цены на средние видеокарты, куртка и ко давно выкупили эту тему: зачем тратится на топ железо, если можно за цену старого топа продать середнячок ;)
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
уточните, о каких лучах он говорит?
RTX+Path Tracing
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее, это так себе совет.
07:00
Щадя оф зи том рейда и тут. Просто пол блока про какую-то лингвистику
Нало брать 5090 не меньше ,чтобы ташило в 4 к 60 +фпс с лучами
А8к на чем тащить? Изачем они сли отключили и квад?!
32гб видеопамяти, для чего? Скорее всего ИИ и тд, для игр даже 20 - избыток
школьники думают что много гигов круто и надолго хватает.
@@F_youtube_rassist_cencureну да, у школьников есть же деньги на топ видеокарту
Прикинь видеокарты не только для игрулек используют
Для рендера, работы, нейросетей, сделанных самим, также для игр в 4к с лучами... В принципе 32 сейчас это как раз конец. выше после 32 как раз на дом не надо
@@F_youtube_rassist_cencure школьникам уже давно не по карману покупать видеокарты. они на нищих линейках 1650 и 3060 сидят
600W? Скоро с видеокартой понадобится приписка "при использовании выключайте отопление в доме"
С чего вы взяли что она 600 будет потреблять? Макси 400
@@нетку 0:25. 400w тоже не плохо обогреет)
@@АлексРоман-й9ю тем у кого столько денег всё равно, хоть 1000в, это как жаловаться что гелик больше гранты расходует бенза
@@нетку Одно дело бенз другое дело жара в комнате. Как у меня у знакомомго 4 кв метра комната где он играет и ниодного окна.
@@АлексРоман-й9ю какая ещё жара? Он так же как и другие карты тепло выделяет, посмотри тесты температур
Когда обзор лунар лейка от бороды?
а так же app будет отслеживать куда вы заходите, что делаете и во что играете, никогда не ставил экспириенс с кучей мусора , только чистый драйвер обновлял
с 1070 смысл был переходить на 3070. с 2070 на 4070. Лучше 4070 TI Super. Будет ли смысл переходить с 4070 на 5070? Пока не знаю, но учитывая цену - не уверен.
Я переходил как раз с 1070 на 3070 и скажу так, не было смысла))) А вот 3070 на 4090 я заменил очень удачно (сбермегамаркет расщедрился что-то в то время и насыпал за покупку бонусов прям очень круто. У меня 4090 вышла в 100к, а 7800хт вышла в 16к вообще.
@@blablabla4136 я перешел с 2070 на 4070 TI super. прирост почти в 2 раза. А насчет 1070 и 3070 - какой у тебя был прирост? 50? хотя бы дало?
Найс обзор без карты делать 👍🏻
Хочу 5090 ti super, чтобы лучи лились отовсюду! Пох , хоть за пять тыщ зелени. Хуанг, ну когда уже????