Экшены/шутеры мне не интересны, я не играю и не умею в такое играть от первого/третьего лица за одного персонажа. Я играю в стратегии, в них не перемещается непрерывно камера, а зачастую камера стоит на месте сверху, а двигаются маленькие персонажи. Для меня 15 FPS это очень даже комфортный фреймрейт, а 8-10 FPS чувствуется как фризы, но всё равно играбельно. Сейчас в Full HD у меня вполне сносно идут на Radeon HD 7750 1 Гб игры, где в минимальных требованиях прописано 2 Гб видео, а таковы подавляющее большинство стратегий за последние пару лет. Cyberpunk 2077 я только на Твиче смотрел, а играть в такой жанр всё-равно ну сумел бы. Из новых стратегий вышла разве что Iron Harvest, требующая 4 Гб видео, её я уже не рискнул на своём компе запускать.warp 37:Как владелец RTX 2080 (аналог RTX 3060), могу сказать, что карта под 4K - неликвидный кусок говна since release date. И дело не в памяти, а в самом чипе и оптимизации игр.
Сам играю в 4K30. И после Cyberpunk 2077, я понимаю, что даже RTX 3080/3090 - сомнительные варианты под 4K...
Так что мне для 4К и обычная 3060 12 Гб, думаю сойдёт, с моими требованиями к FPS. Хотелось бы, конечно дождаться 256 бит 16 Гб видяху от nVidia, но даже если она и выйдет к окончанию майниг-бума, то даже по розничным ценам близким к рекомендованным она окажется дороже нынешней 3070 с MSRP $500, а это слишком дорого за видяху, мощь которой будет большей мерой простаивать с моими нагрузками. По сути это получится жирнее 2080 Ti на 11 Гб. А 3060 Ti точно с 16 Гб выпускать не будут, максимум 3070 (Super/Ti).