4k Monitor trotz WQHD

Mein Werbebanner1
Mein Werbebanner2
  • Willkommen bei Hardware-Inside, Gast! In unseren Forenrichtlinien findest du alle Informationen zu unserer Community. Bei Registrierung wird auch kaum noch Werbung angezeigt...

ChckNrrs

Aktives Mitglied
28. 11. 2021
244
350
63
Hallo, Leute.

Brauche einen neuen Monitor (Gaming).

Wenn für euch klar wäre, dass ihr auf WQHD zockt (wegen Strom, Hitze, Systembelastung: 4k muss aktuell nicht sein), obwohl euer System auch 4k könnte:

würdet ihr einen guten 4k Monitor kaufen, um in 5 Jahren auf 4k umsteigen zu können / Wiederverkaufswert?

Oder würdet ihr passgenau einen WQHD Monitor kaufen?

Danke euch.
 
Zuletzt bearbeitet:
Ohne nachzubohren, warum es sinnvoll sein soll auf WQHD zu zocken, wenn das System auch 4K stemmen könnte -
1. Arbeitest du (auch) am Monitor?
2. Auf welche Monitorgröße möchtest du maximal setzen?

Falls du am Monitor arbeitest, definitiv 4K und eine Diagonale, die dir 100% Skalierung ermöglicht (111 ppi hat meiner, was genau passt ohne skalieren zu müssen). Kommt ein Monitor dieser Größe nicht in Frage und/oder du arbeitest nicht daran, WQHD kaufen und später um- oder aufrüsten.
 
  • Like
Reaktionen: ChckNrrs
Hey @Holzbesen,

- ich arbeite auch dran

- Größe keine Ahnung, ich fänd 32 Zoll non-curved nice, bin aber auch für curved offen (?)



Die beiden finde ich spontan gut, wobei ich mich frage, ob die Quali stimmt, und wie das PL zu bewerten ist.

- Skalierung 100 % / ppi: ehrlich gesagt habe ich gedacht, dass das nie ein Thema ist, d.h. dass jeder Monitor Inhalte darstellt, ohne die Proportionen zu verzerren (gehört das nicht zum absoluten 0815 - Standard?), daher danke für deinen Hinweis; unter welcher Rubrik finde ich das im Datenblatt?

WQHD: ich sehe schon kaum einen Unterschied zwischen WQHD und FullHD, und bei 4k wird die Graka doch bspw. stark ausgelastet / evt. heiß (beim Zocken). Das würde ich dem System gerne ersparen.

Wobei ich evt. (?) auch auf einem 4k Monitor in 4k arbeiten kann, und in WQHD ohne Verzerrungen oder Verluste zocken kann... ?

VG
 
Gerade zum Arbeiten habe ich einen 21:9 bevorzugt, aber keinen mit 1440 Pixel in der Höhe - war mir zu wenig.
Die volle Höhe von 4K (2160p) dagegen war mir zu viel.

Wenn das Geld etwas lockerer sitzt, kann ich dir den UltraGear 38GN950-B empfehlen.
Bringt alle aktuellen Techniken mit, hat eine hervorragende Auflösung und kann nativ genutzt werden (je nach Sehkraft).
"Arbeit" kann nahezu jeder Monitor, dieser hier kann aber auch Gaming - 144Hz gehen sinnvoll (160Hz nur mit Abstrichen), Leuchtkraft bei HDR ist gut genug und FreeSync/G-Sync werden unterstüzt. Hintergrundbeleuchtung inkl., wenn mans braucht - ist ganz nett. Was er nicht kann - zwei Geräte parallel darstellen, gäbe aber ein alternatives Modell zu dem UltraGear.

ppi: ehrlich gesagt habe ich gedacht, dass das nie ein Thema ist
Ich meinte damit vor allem, ob Windows auf 100% Skalierung läuft, oder du hochskalieren - also den Bildinhalt vergrößern musst. Du hast bei höheren Auflösungen nur dann maximal viel mehr Arbeitsfläche, wenn du auf 100% arbeitest.
Wobei ich evt. (?) auch auf einem 4k Monitor in 4k arbeiten kann, und in WQHD ohne Verzerrungen oder Verluste zocken kann... ?
Je nach Monitor funktioniert das sehr gut oder gut, ob du den Unterschied feststellst - keine Ahnung.
Allerdings würde ich grundsätzlich nur nativ zocken, dafür notfalls die Grafik runterschrauben und Framelimiter einsetzen.
 
  • Like
Reaktionen: ChckNrrs

Danke dir. Wenn ich dazu ein paar Sachen fragen kann:

Was bedeutet "kann nativ genutzt werden"? Ohne ständig an der Auflösung rumzuspielen?

Was bedeutet AMD FreeSync Premium Pro? Im Unterschied zu nur FreeSync?

Und bedeutet Nvidia G-Sync Compatible zertifiziert, dass es da noch einen besseren Standard gibt, also bspw. G-Sync "nativ"?

Und wieso steht da nur zu FreeSync mit HDR? Wenn ich eine Nvidia Grafikkarte nutze, habe ich dann kein HDR?

Danke dir vorab.

Bin gerade noch bei Instagram über einen 360 Hz WQHD Monitor gestolpert. Uff. Braucht man das?
 
Was bedeutet "kann nativ genutzt werden"? Ohne ständig an der Auflösung rumzuspielen?
Ja richtig, ohne die inGame-Auflösung reduzieren zu müssen. Eine Auflösung für alles.

FreeSync Premium Pro unterstützt einen größeren Bereich an Frequenz und kann HDR, ist also besser als FreeSync (Pro). Hier gibts weitere Infos zu. Die Vorgänger-Versionen konnten kein FreeSync und HDR.

Nvidia G-Sync Compatible heißt, dass zwar G-Sync (reibungslos) unterstützt wird, Nvidia aber kein extra Geld für das G-Sync Modul in den Rachen geschmissen wird. Kam erst auf den Markt, als AMD kostenfrei FreeSync als Konter zum kostenpflichtigen G-Sync angeboten hat.

Der Monitor kann grundsätzlich HDR (unabhängig des Herstellers).

360 Hz geht wieder zulasten anderer Parameter - würde ich dann kaufen, wenn professionell Shooter gezockt werden. Selbst die 160 Hz beim LG gehen nur unter Qualen, 144 Hz sind da die richtige Wahl - gibt einen hervorragenden Test des Monitor bei Prad.

Edit: Abseits von alten Spielen wird man eh nicht in diese fps-Regionen kommen, zumindest bei der enormen Auflösung. Sehe also keinen Nutzen, abseits von E-Sport.
 
Moin.

☕☕☕☕☕☕☕☕☕☕☕

Danke für deine ausführliche Erklärung, und den Link.

Top. 🙂

Was ich noch nicht verstehe (Text zu Free Sync PP):

What this HDR (high-dynamic-range imaging) support means for Pro is that it will deliver smooth HDR performance while FreeSync and FreeSync Premium will be limited due to processing bandwidth. It’s important to note that, as of 2022, the list of games that support FreeSync Premium Pro is not very large. Big AAA games such as Horizon: Zero Dawn, Call of Duty: Black Ops 4, and Far Cry 6 are on this list, but there are some notable omissions that show this technology is still in its infancy.

Ich wollte mir eine Nvidia zulegen, wegen DLSS und Raytracing.

Und ich möchte bei der Optik keine Abstriche machen.

HDR ist eigentlich wichtig, finde ich.

Bedeutet das, dass jede Nvidia DLSS hat (was aus meiner Sicht, soweit ich das verstanden habe, manchmal je nach Game von AMDs Codebox gekontert wird, die den Developern zur Verfügung gestellt wird und - FALLS sie den Code in einem Game verwenden - dazu führt, dass Spiele viel besser laufen in Sachen FPS), und beim Raytracing aktuell (? viel ?) besser ist als AMD, aber ich dann auf HDR verzichten muss, oder es nur mit (? erheblichen ?) Einschränkungen habe, wenn ich auf G-Sync angewiesen bin?
Was wirkt dann limitierend, Graka oder Monitor bzw. wie ist da die Wechselwirkung?

Gibt es da evt. einen Link zu den aktuellen Standards bei HDR (10, 10+, 200, 400, 600 - ???).

Habe mich schon gewundert, dass das neue TV Flaggschiff von Philipps (glaube der OLED+ 926 oder so ähnlich mit Ambilight und angeblich 8 ms Reaktionszeit, also PS5 tauglich, und fast Shooter - ex eSports - tauglich, *sabber*) "nur" HDR 10 kann, wenn ich irgendwo HDR 600 lesen. Ich nix verstehn, worauf ich da bei HDR bei Graka vs. Monitor vs. TV achten muss.

Und habe ich dich richtig verstanden, dass G-Sync Compatible Certified der aktuell höchste / auf einer Höhe zum aktuell höchsten G-Sync - Standard ist (hast du da auch evt. einen Link zu)?

Ich hatte früher eine AMD Graka und war sehr zufrieden, btw. In the old days. Möchte jetzt aber alles rausholen, was geht.

Danke für deine / eure Geduld. Ohne Recherche zu Technikkram und Austausch geht es einfach nicht. Einfach nur einen guten Monitor zu kaufen, mit dem ich beim Bild alles rausholen: vergiss es.


Guten Start in den Tag an alle
 
Zuletzt bearbeitet:
Ach ja, ich komm auch vom Thema ab, auch wenn das oben aus meiner Sicht wichtig ist.

Ich will meine Graka nicht unter Volllast im System bei 80 Grad haben. 60 Grad ist für mich das Äußerste der Gefühle. Kann ich auch auf deinem Monitor - Vorschlag die Auflösung runterschrauben, um ein Game statt in 4k in WQHD zu genießen (ich weiß nicht, wie man die Auflösung bei deinem Vorschlag heißt) und so die Graka zu entlasten?

Oder ist der dann so, dass die Graka nativ = auf der max Auflösung des Monitors nicht voll ausgereizt wird, was gut wäre?

Wegen Lebensdauer des Systems.

Nvidia RTX 3080 Ti mit mind. 12 GB DDR6+ VRAM ist das Ziel, lieber waren mit 16 bis 20 GB VRAM, oder RTX 6900 XT mit 16 GB VRAM.

8 GB VRAM ist mir defintiv zu wenig.

- wie muss man bei der aktuellen Technik Monitor und Graka noch manuell einstellen?

Plug, Play, Erkennung, optimale Einstellung scheint es ja so nicht mehr zu geben.

Bspw. muss ich bei der Graka ein FPS - Limit von 144 einstellen = ich reize den Monitor maximal aus? Oder erkennen die 2 das maximal sinnvolle selber?

Muss ich die Auflösung des Monitors bei der Graka manuell einstellen?

Usw.

Ich werde keine eSport Games mehr spielen, aus dem Alter bin ich leider raus. Aber ansonsten eine sehr große Bandbreite, auch Story Shooter (Doom! Mein erster Shooter in den 90ern, muss ich unbedingt die aktuellen Titel zocken), Strategie, Rollenspiele, Rennspiele, Weltraum - Sim mit Joystick(s) (ist bestimmt sehr cool auf einem.curved; hoffe, der taugt auch für Shooter). Fan bin ich von Open World mit Hauptstory, jede Menge Nebenquests, und vielen Handlungsmöglichkeiten.

Vielen Dank vorab.

Hoffe, die Technikdiskutiererei ist auch für euch interessant.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Hm. Wieso gibt es G-Sync Ultimate, wenn es dafür keine Monitore gibt (kaum), und die 3.000er Serie laut Produktdatenblatt bei geizhals.de kein Ultimate kann.
 
Wieso gibt es G-Sync Ultimate, wenn es dafür keine Monitore gibt (kaum)
Kam erst neu raus, wird aber eine Nische bleiben - da auch dieser Chip vermutlich verdammt teuer sein wird.
Das ohne wirklich großen Nutzen, FreeSync Pro Premium gegenüber gestellt.

Davon ab braucht man weder G- noch Free-Sync, wenn die die fps stabil auf einem Level gehalten werden können und ein framelimiter eingesetzt wird. Ist halt bei den hohen Auflösungen meist nicht der Fall.
Und ich möchte bei der Optik keine Abstriche machen.
Dann Nvidia, da Raytracing bei AMD ne Menge Leistung zieht - mehr als bei den grünen Karten.
Ob das ein entscheidendes Kaufargument ist, musst selbst entscheiden.
HDR ist eigentlich wichtig, finde ich.
HDR macht Spaß, muss aber vom Spiel unterstützt werden.
Sieht im Direktvergleich super aus, während man zockt fällts kaum auf.
Bedeutet das, dass jede Nvidia DLSS hat
Aktuelle Generationen. Meiner Meinung nach sinnlose Technologie, wenn genug Leistung vorhanden ist. AMD hat einen Konterpart (AMD FidelityFX™ Super Resolution), auch diese Technik muss vom Spiel explizit unterstützt werden - gibt Listen im Internet für beides.
Was wirkt dann limitierend, Graka oder Monitor bzw. wie ist da die Wechselwirkung?
HDR und parallel FreeSync - der Monitor limitiert, wenn er nicht FreeSync Pro Premium anbietet. Äquivalent wohl bei Nvidia, G-Sync Ultimate bla. Obs auch ohne reibungslos geht - bin ich nicht sicher.
Plug, Play, Erkennung, optimale Einstellung scheint es ja so nicht mehr zu geben.
Auflösung manuell einstellen, Frequenz manuell einstellen und im Treiber die max. Frequenz (144 Hz bei mir) mit max. möglichen fps gleichsetzen.
8 GB VRAM ist mir defintiv zu wenig.
Die 3080 Ti ist frech teuer im Vergleich zur 3080, wäre aber mein Favorit neben der 6900 XT. 8Gb ist ganz sicher zu wenig, bei hohen Auflösungen - wurde in Benchmarks schon nachgewiesen.
Ich will meine Graka nicht unter Volllast im System bei 80 Grad haben. 60 Grad
Wenn du eine gute Karte kaufst, wird die nicht so heiß.
Meine 6800er von AMD erreicht in AC Valhalla 57°C, guter Kühler und gutes Gehäuse.
Davon ab ist die Temperatur so lange i.O., wie die Grafikkarte nicht anfängt zu drosseln.

Edit: Nächstes Mal bitte einfacher gestalten und die Fragen nummerieren ^^
 
  • Like
Reaktionen: Haddawas und ChckNrrs
@Holzbesen Vielen Dank, top. Das hilft mir alles sehr.

(1)

Unklar bleibt also das Thema HDR bei Nvidia, okay. Ob man was davon hat, wenn ein Game das unterstützt, der Monitor HDR kann, die Graka das kann, und der Monitor "nur" G-Sync hat (nix Ultimate).

Moin zusammen.
 
Vielen Dank, top. Das hilft mir alles sehr.
Du hast schon Recht, auch für solche Technikdiskutiererei ist ein Forum da :nerd:

1. Ich denke, dass es nicht geht oder zumindest nicht optimal funktioniert.
Wobei du nicht immer G-Sync brauchen wirst, je nach Spiel - ging vorher auch ohne.
Notfalls die Grafik herunter schrauben, um mehr fps zu erzielen - mit fps-Begrenzer im Treiber.
Dann kannst du auch HDR nutzen.

HDR ist meist nur eine Spielerei und kann dann besser aussehen, wenn das Spiel HDR gut umsetzt.
HDR 600 wie mein LG 38GN950-B, ist brauchbar gut. Besser wären 1000 nits, da sprechen wir aber von anderen preislichen Dimensionen. Mein LG CX OLED erreicht zwar 1000 nits (auf dem Papier), die meisten meiner Spiele unterstützen die Einstellung aber nicht.

2. Im Grafikkarten-Treiber die Framerate auf die maximale Monitor-Frequenz limitieren, unter Windows "Anzeigeeinstellungen" die Auflösung und Aktualisierungsrate prüfen und ggf. nachjustieren. Mehr Einstellung wird da nicht vonnöten sein.
 
  • Like
Reaktionen: ChckNrrs
Oben Unten