Dieses Forum nutzt Cookies
Dieses Forum verwendet Cookies, um deine Login-Informationen zu speichern, wenn du registriert bist, und deinen letzten Besuch, wenn du es nicht bist. Cookies sind kleine Textdokumente, die auf deinem Computer gespeichert sind; Die von diesem Forum gesetzten Cookies düfen nur auf dieser Website verwendet werden und stellen kein Sicherheitsrisiko dar. Cookies auf diesem Forum speichern auch die spezifischen Themen, die du gelesen hast und wann du zum letzten Mal gelesen hast. Bitte bestätige, ob du diese Cookies akzeptierst oder ablehnst.

Ein Cookie wird in deinem Browser unabhängig von der Wahl gespeichert, um zu verhindern, dass dir diese Frage erneut gestellt wird. Du kannst deine Cookie-Einstellungen jederzeit über den Link in der Fußzeile ändern.
Hallo, Gast! (Registrieren)
27.11.2024, 11:35



Hardware-Ecke
24.07.2015
LightningGear Offline
Titeljäger
*


Beiträge: 9.518
Registriert seit: 06. Jun 2012

RE: Hardware-Ecke
(24.07.2015)Der Unbekannte schrieb:  Sieh an Sieh an, die Atelco GmbH hat wirklich Insolvenz angemeldet.

Damit ist automatisch auch Hardwareversand insolvent.
Computerhändler Atelco meldet Insolvenz an
Dort steht, dass sowohl der Filialen- als auch der Online-Betrieb weiterlaufen soll.

(24.07.2015)Der Unbekannte schrieb:  
(23.07.2015)GearTight schrieb:  Hab ich doch gesagt. DirectX 12 könnte den verfügbaren Speicher kombinieren, aber auch nur in Spielen, die DirectX 12 nutzen und deren Engines dafür ausgelegt sind. Und ob das so schnell geht, wage ich zu bezweifeln, schon allein deswegen weil noch immer haufenweise Spiele mit OpenGL oder gar DirectX 9 ausgeliefert werden.

Quelle !

Geforce and Radeon GPUs Running Low Level APIs Can Finally Combine Video Memory
Dort steht unten im letzten Absatz auch was ich bereits gesagt habe, nämlich dass die Möglichkeit zwar in DirectX 12 (und Mantle) vorhanden ist, die Spiele (und Engines) aber speziell dafür optimiert werden müssen.

Ich bin hier nicht mehr online, nehmt mir gerne jeden x-beliebigen Thread weg, den ihr gerne hättet. Ich erteile die grundsätzliche Erlaubnis für alle meine noch offenen Threads.
Zitieren
24.07.2015
Pandora51 Offline
Royal Guard
*


Beiträge: 3.095
Registriert seit: 04. Sep 2012

RE: Hardware-Ecke
hm sowas ist immer doof. Nach K&M (da war es aber abzusehen) also der nächste.

Um ehrlich zu sein war ich noch nie bei Atelco oder habe dort etwas bestellt.
Oder vielleicht doch einmal in Frankfurt...ka


@Andromachus

Danke

Jetzt bitte noch Bilder!  RD laugh

Lightroom Export kritisch?  AJ hmm  Der ist aber anscheinend auch nicht so gut optimiert. Lightroom 6 lastet zusätzlich noch die Cpu richtig stark aus.
Der Export von 400 jpgs für ein Timelapse waren bei mir vor einiger Zeit auch extrem. i7-3770k + 16gb ram.

Always be yourself unless you can be a dragon, then always be a dragon

Zitieren
24.07.2015
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Hmmm die 970 haben sie damals zurückgenommen und sonst hab ich da nichts weiter mit zu tun... der Laden bei uns war eh überteuert und meist ziemlich leer, sowohl Kunden als auch Produkte.

Finde es jetzt nicht wirklich schlimm.


Zum kombinierten Ram, ich hatte damals nur gelesen das AMD da in zukunft was plant.
Was DX 12 angeht... ich hab da so meine zweifel das viele entwickler dieses feature nutzen werden.
Zitieren
24.07.2015
Andromachus Offline
Changeling
*


Beiträge: 801
Registriert seit: 16. Jul 2013

RE: Hardware-Ecke
So siehts grad aus, hab derzeit nur ein Handyfoto. Wenn die GPU aus dem RMA wieder da ist, dann kann ich innendrin noch aufräumen (Schläuche, Kabel) und mach dann richtige fotos.

[Bild: rig.jpg]

Zum Größenvergleich, links ist das Caselabs Case, dann der 40" Monitor, dann die zwei 24" Monitore.

Platte von der mediabox ist auch noch verreckt. Irgendwie hab ich verpennt ein backup davon zu machen, konnte das root-lv aber noch runterziehen, sonst hätte ich das neu aufsetzen müssen. Die Bootpartition nicht. Beim Rekonstruieren war dauernd der Wurm drin, konnte mich bei der Hitze überhaupt nicht konzentrieren.

Nun läufts aber wieder, rechtzeitig zur Star Wars Session morgen, da muß die passende Hintergrundmusik im Wohnzimmer laufen. Zum Glück hatte ich noch ne alte 320GB Platte rumliegen.

Lightroom Export dauert immer ne weile, wenn man viel HDR macht, dann kostet das Zeit.
Import dauert noch länger, aber das kann man sonst nebenher machen. Mit dem alten Rechner ging der Import, inkl. Rendern der 1:1 Previews, von 100GB Urlaubsbildern ca. 9h.

Das Leben ist kein Ponyville

[Bild: andromachus_white.png]
Zitieren
24.07.2015
Der Unbekannte Offline
Enchantress
*


Beiträge: 735
Registriert seit: 17. Apr 2012

RE: Hardware-Ecke
(24.07.2015)GlaDos schrieb:  Zum kombinierten Ram, ich hatte damals nur gelesen das AMD da in zukunft was plant.
Was DX 12 angeht... ich hab da so meine zweifel das viele entwickler dieses feature nutzen werden.

Die Frage ist eher diese hier :
Wird nVidia und AMD zusammenarbeiten ?

Sollte nVidia oder AMD irgendwas in den Treibern einbauen, dass sowas unmöglich macht, wird auch kein Entwickler das bei einem Spiel optimieren.
Und mal Hand aufs Herz, wie viele haben schon ein SLI/CFX System zuhause ?

Ich würde dieses Feature zwar gut heißen, gerade bei Usern die 2*HD 7870 z.B drinne haben, aber bevor es dazu kommt, gibt es wahrscheinlich schon bessere Karten.

Man muss sich nur heutzutage die Karten ansehen, alle tendieren schon Richtung 8 bzw 12 GB für Consumer. AMD hat den ersten Schritt dafür getan [R9 390], bei nVidia fängt das erst bei der 980TI an, es dauert aber nicht mehr lange und ich sehe die R9 400/GTX 1000 ??? Series mit 12 bzw 16 GB im Regal der Händler liegen.
Zitieren
25.07.2015
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Ich denke wir kennen die antwort.

Aber mal schauen wieviel VRAM es in der nächsten Generation sein wird, HBM ist ja noch nicht ganz ohne probleme, ich denke da kommen erstmal 8GB mit AMD als bevorzugten Hersteller.
Zitieren
25.07.2015
Andromachus Offline
Changeling
*


Beiträge: 801
Registriert seit: 16. Jul 2013

RE: Hardware-Ecke
8GB gabs ja schon bei der 290x. Die 780ti brachte auch schon 6GB mit.
Die GTX 670 in meinem alten PC hatte auch schon 4GB und wurde anfang 2013 gekauft.

SLI bzw. Crossfire ist derzeit interessant, weil es keine GPUs gibt, die alleine einen 4k Monitor antreiben können. Erste Nutzer denken schon über 3x 4k als Surround nach.

Da weder TSMC noch Global Foundries derzeit unter 28nm kommen, wird sich auch nicht dramatisch viel verbessern, was die GPU Leistung angeht pro Karte. Das Transistorbudget ist eben einfach begrenzt.

Das Leben ist kein Ponyville

[Bild: andromachus_white.png]
Zitieren
25.07.2015
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Die haben aber alle GDDR5 und kein HBM. Der macht ja, neben der fertigung, auch noch Probleme, keine hohe Stückzahl verfügbar und auch noch sehr begrenzt auf einer Karte selbst verfügbar.

Auch wenn hier 4GB HBM nicht so kritisch sind wie 4GB GDDR5.

Und es springen auch nicht alle auf den 4k Zug auf, ich seh da momentan keinen Vorteil. Nur reduzierte Details und höhere Leistungsaufnahme bei niedrigeren FPS.
Dazu hauen einige nicht haufenweise Geld für eine überfette Kiste raus die kaum was nützt.
(Dieser Beitrag wurde zuletzt bearbeitet: 25.07.2015 von Captain Gulasch.)
Zitieren
25.07.2015
Andromachus Offline
Changeling
*


Beiträge: 801
Registriert seit: 16. Jul 2013

RE: Hardware-Ecke
(25.07.2015)GlaDos schrieb:  Auch wenn hier 4GB HBM nicht so kritisch sind wie 4GB GDDR5.

VRAM ist VRAM, wenn der ausgeht, wirds langsam, weil die Assets dann ins normale RAM ausgelagert werden. HBM mit nur 4GB rausbringen ist halt total sinnlos. Für 1080p und "herkömmliche Spiele" reichen günstigere GPUs allemal, und wer mehr will, der wird sich nicht mit 4GB VRAM zufrieden geben.
Selbst wenn das VRAM Limit nicht gesprengt wird, und HBM seine höhere Bandbreite wirklich ausspielen kann, so zeigen sich bisher noch keine Vorteile gegebüber dem nVidia Flaggschiff.

Zitat:Und es springen auch nicht alle auf den 4k Zug auf, ich seh da momentan keinen Vorteil. Nur reduzierte Details und höhere Leistungsaufnahme bei niedrigeren FPS.

Bei höherer Auflösung hast natürlich auch mehr Details. Und gegen niedrigere FPS hilft - wie schon gesagt - SLI/Crossfire. Wenn ich so ins SC Forum schaue, dann wird eine Multi-GPU Mühle nach der anderen gebaut. Ist übrigens auch der Vorteil der 2011er Plattform, es stehen mehr PCI-E lanes zur Verfügung.

Das Leben ist kein Ponyville

[Bild: andromachus_white.png]
Zitieren
25.07.2015
Der Unbekannte Offline
Enchantress
*


Beiträge: 735
Registriert seit: 17. Apr 2012

RE: Hardware-Ecke
(25.07.2015)Andromachus schrieb:  8GB gabs ja schon bei der 290x. Die 780ti brachte auch schon 6GB mit.
Die GTX 670 in meinem alten PC hatte auch schon 4GB und wurde anfang 2013 gekauft.

SLI bzw. Crossfire ist derzeit interessant, weil es keine GPUs gibt, die alleine einen 4k Monitor antreiben können. Erste Nutzer denken schon über 3x 4k als Surround nach.

Da weder TSMC noch Global Foundries derzeit unter 28nm kommen, wird sich auch nicht dramatisch viel verbessern, was die GPU Leistung angeht pro Karte. Das Transistorbudget ist eben einfach begrenzt.

Die 290x mit 8GB kam deutlich später raus, ich meine kurz vor ende das Jahres 2014 [Nov rum].
Die 290x mit 4GB gab es da aber schon knapp nen Jahr.

Die 780TI mit 6gb kam auch später aufn Markt, und eine 670 mit 4GB kam auch nicht aufn Release Tag der 670 raus.



Derzeit gibt es nur eine Hand voll Karten die überhaupt 30 FPS erreichen auf 4k, diese fangen bei 300 € an. Will man wirklich hohe Details mit 4K haben, kann man schon 2-3 Karten davon einpacken, und dann ist man meist schon im 1000 € + Bereich. In nVidias Fall schon bei 2K+
Dazu kommen noch die Monitore etc etc

Und nicht jeder hat dafür Geld, der Großteil der Consumer für PC Hardware, spielen halt noch auf 1080p oder 1440p.


Aufn 4K Monitor mal zu Spielen und zu Arbeiten wäre bestimmt geil, ist aber mit einen mind Preis von 600€+ noch zu teuer.
Zitieren
25.07.2015
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Zitat:Bei höherer Auflösung hast natürlich auch mehr Details
Du hast ein schärferes Bild und weniger Kantenflimmern. Grundsätzlich kann das Spiel aber schlechter aussehen.
Ich rede von 4k maxed out Gaming, auf details zu verzichten für höhere Auflösung bei annehmbaren FPS ist einfach dämlich.

Zitat:Bei höherer Auflösung hast natürlich auch mehr Details. Und gegen niedrigere FPS hilft - wie schon gesagt - SLI/Crossfire. Wenn ich so ins SC Forum schaue, dann wird eine Multi-GPU Mühle nach der anderen gebaut.
Klar und deswegen rennen jetzt alle ins Geschäft und können oder wollen wie du 10k€ für nen PC zahlen, in welcher Welt lebst du eig.? [Bild: cl-rar-seriously.png]

Stromkosten erwähne ich mal nur nebenbei.



Tatsache ist das die FPS bei 4GB HBM nicht so stark einbrechen wie bei 4GB GDDR5, tatsache ist das die Fury X auch nicht stark benachteiligt ist ggü. nV.
Der Witz: In 1080p skaliert die Karte schlechter und je höher du gehst desto besser, wie bei allen GCN Karten.

Zitat:Und nicht jeder hat dafür Geld, der Großteil der Consumer für PC Hardware, spielen halt noch auf 1080p oder 1440p.

Aufn 4K Monitor mal zu Spielen und zu Arbeiten wäre bestimmt geil, ist aber mit einen mind Preis von 600€+ noch zu teuer.

Richtig...
Aber 1080 oder 1440 sieht trotzdem nicht aufeinmal total scheiße aus womit man überhaupt nicht mehr leben kann.
Zitieren
25.07.2015
Andromachus Offline
Changeling
*


Beiträge: 801
Registriert seit: 16. Jul 2013

RE: Hardware-Ecke
(25.07.2015)Der Unbekannte schrieb:  Die 290x mit 8GB kam deutlich später raus, ich meine kurz vor ende das Jahres 2014 [Nov rum].
Die 290x mit 4GB gab es da aber schon knapp nen Jahr.

Die 780TI mit 6gb kam auch später aufn Markt, und eine 670 mit 4GB kam auch nicht aufn Release Tag der 670 raus.

Und was willst du mir damit sagen?

Tatsache ist, daß 4GB VRAM heute für High-End GPUs nicht mehr zeitgemäß ist. Und eben auf dem Markt auch schon seit Jahren angeboten wurde. U.a. auch von AMD selber.
Die reguläre 980 hat übrigens deshalb viel Kritik einstecken müssen.

(25.07.2015)GlaDos schrieb:  Du hast ein schärferes Bild und weniger Kantenflimmern. Grundsätzlich kann das Spiel aber schlechter aussehen.

Bisher sahen alle Spiele, die ich angetestet habe, auf 4k besser aus - was auch meinen Erwartungen entspricht.

Bei welchem Spiel war das bei dir denn nicht der Fall? Ich denke, das dürften extreme Ausnahmen sein, z.B. wenn sich die native Displayauflösung nicht einstellen läßt.

Zitat:Klar und deswegen rennen jetzt alle ins Geschäft und können oder wollen wie du 10k€ für nen PC zahlen, in welcher Welt lebst du eig.?

Irgendwie hast du nicht ganz kapiert worum es geht: Nämlich dass im High-End Bereich, zu dem auch die Fury gehört, gewisse Eckdaten gefragt sind.

Zitat:Tatsache ist das die FPS bei 4GB HBM nicht so stark einbrechen wie bei 4GB GDDR5, tatsache ist das die Fury X auch nicht stark benachteiligt ist ggü. nV.

Das ist Unsinn und hängt vom Spiel ab. Durch HBM ändert sich weder die Bandbreite auf dem PCI-E Bus, noch die Anbindung ans System RAM. Wenn die Karte also Daten holen gehen muß, dann ist es erstmal völlig egal ob GDDR5 oder HBM verbaut ist, es dauert.

Viele Leute machen einen Bogen um die Fury und greifen eher noch zur 290x bzw. 390x.

Man muß auch verstehen daß HBM als Gamechanger gehyped wurde, als Durchbruch in der GPU Leistung. Und das konnte AMD leider nicht erfüllen. Man muß schon die Produkte im Kontext der Marketingaussagen sehen.

Zitat:Richtig...
Aber 1080 oder 1440 sieht trotzdem nicht aufeinmal total scheiße aus womit man überhaupt nicht mehr leben kann.

"Nicht mehr Leben können" ist sicherlich übertrieben, aber im direkten Vergleich liegen eben schon welten dazwischen. Übrigens auch bei Videos, gibt ja schon einige wenige in 2160p60.

Klar, richtig abheben wird 4k erst wenn DP1.3 Produkte erhältlich sind.

Edit: Braucht man mehr Leistung, so gibts immer zwei Möglichkeiten: Scale-Up und Scale-Out. Scale-Up bedeutet, daß ich mir eine bessere Lösung kaufe, Scale-Out daß ich mir mehr von der gleichen Lösung kaufe. Die GPU technologie hat sich in den letzten Jahren wenig weiterentwickelt, für 1080p braucht es im Prinzip keine neuen GPUs (mit meiner 670 war ich noch gut dabei) Aber dadurch, daß man nicht upscalen kann, ist SLI/Crossfire derzeit wieder wichtig geworden auf dem Markt. Wo man früher eine bessere GPU gekauft hat, muß man heute zusätzliche kaufen, nicht nur wegen 4k, sondern auch wegen Surround und den VR Brillen.

Das Leben ist kein Ponyville

[Bild: andromachus_white.png]
(Dieser Beitrag wurde zuletzt bearbeitet: 25.07.2015 von Andromachus.)
Zitieren
25.07.2015
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Zitat:Bisher sahen alle Spiele, die ich angetestet habe, auf 4k besser aus - was auch meinen Erwartungen entspricht.

Ah ja und es versteckt dann wohl auch low textures oder schlechte Licht effekte wenn man auf low Spielen muss.

Zitat:Irgendwie hast du nicht ganz kapiert worum es geht

Du hast nicht ganz kapiert was ich damit sagen wollte: Nicht jeder hat die möglichkeit 10k€ für einen PC auszugeben oder will das überhaupt oder hat einen nutzen davon.
Aber das wird auch das letzte sein was ich generell antworten werde.... mir wirds zu blöd.




Dazu werden bei noch höheren Auflösungen die nVs genau so erbärmlich in die knie gehen.

Hast du tests zu der Fury gelesen? Tatsache ist das bei 4k der 4GB Speicher aktuell nicht limitiert.

Zitat:2160p60
Haha ja klar genau, bei dem Otto normal Rechner mit 4790k völlig in die knie gehen, moment ich kauf mir eben mal was neues.
Es ist nett zu sehen was machbar ist, aber es ist noch lange nicht soweit das es für den alltag nutzbar ist.

Du kannst jedes System mit extremen Settings in die knie zwingen, 4k oder höher, DS, AA Modi, am besten SSAA und die FPS werden ganz schnell ganz klein.
Zitieren
25.07.2015
LightningGear Offline
Titeljäger
*


Beiträge: 9.518
Registriert seit: 06. Jun 2012

RE: Hardware-Ecke
(25.07.2015)Andromachus schrieb:  Irgendwie hast du nicht ganz kapiert worum es geht: Nämlich dass im High-End Bereich, zu dem auch die Fury gehört, gewisse Eckdaten gefragt sind.

Zitat:Tatsache ist das die FPS bei 4GB HBM nicht so stark einbrechen wie bei 4GB GDDR5, tatsache ist das die Fury X auch nicht stark benachteiligt ist ggü. nV.

Das ist Unsinn und hängt vom Spiel ab. Durch HBM ändert sich weder die Bandbreite auf dem PCI-E Bus, noch die Anbindung ans System RAM. Wenn die Karte also Daten holen gehen muß, dann ist es erstmal völlig egal ob GDDR5 oder HBM verbaut ist, es dauert.

Viele Leute machen einen Bogen um die Fury und greifen eher noch zur 290x bzw. 390x.

Man muß auch verstehen daß HBM als Gamechanger gehyped wurde, als Durchbruch in der GPU Leistung. Und das konnte AMD leider nicht erfüllen. Man muß schon die Produkte im Kontext der Marketingaussagen sehen.

HBM ist zurzeit Bleeding-Edge-Technologie, und daher sowohl schwierig herzustellen als auch teuer. Die Fury ist für die Leute, die das Neuste vom Neusten in Sachen Grafiktechnologie wollen.

Und warum packt AMD "nur" 4GB davon drauf? Weil sie im Moment schlicht und einfach das Geld nicht haben, um diese Technologie so weit weiter zu entwickeln, dass sie sowohl für sich selbst als auch den Endkunden halbwegs erschwinglich mehr auf die Karten bauen könnten. Und das wird sich auch so lange nicht ändern, bis die Leute tatsächlich anfangen, diese Karten zu kaufen.

Aber nein, man gibt lieber deutlich mehr aus für Karten von Nvidia, die wie Apple bloß durch Hype und hohe Preise die Leute reinziehen können, weil "innovativ" ist die Firma ganz sicher nicht.
-PhysX? Gibt's schon, nennt sich Havok und Bullet und ist plattformunabhängig.
-Gameworks? Schlechter Deckmantel der "Vereinfachung von Spieleentwicklung", um sich einen Vorteil gegenüber AMD in Sachen Performance zu verschaffen.
-Hairworks? AMD did it, nennt sich TressFX.
-TITAN? Glorifizierte Workstation-Karten, die an Gamer vermarktet werden, obwohl es letztendlich bloß High-End-GTX-Karten mit mehr Speicher und doppelt so hohem Preisschild sind.

Bei Intel kann ich es mittlerweile durchaus verstehen, die FX-Chips von AMD, wenn gut, lassen in ihrer Singlecore-Performance doch etwas zu wünschen übrig, speziell in Sachen Virtualisierung und Emulation.
Diesen Vorteil sehe ich bei AMD vs. Nvidia nicht.

Und "4GB sind auf High-End-Karten heutzutage einfach nicht mehr zeitgemäß", bitte was? Die meisten Leute können sich ja nicht einmal einen 4K-Monitor leisten, und selbst Downsampling von 4K auf 1080p verbraucht in der Regel nicht mehr als 3,5-4GB an VRAM. Oberhalb von 4K lässt der Mehrwert schnell nach.
Dass diese ganzen neuen Karten mit mehr als 4GB an VRAM ausgeliefert werden, sehe ich, bis man mir einen konkreten Mehrwert demonstrieren kann, eher als Marketing-Gag an, um den Kunden weißzumachen, dass sie "das brauchen". Texturen kann man schon jetzt nicht mehr viel schärfer machen, ohne dass erneut der Mehrwert zu gering ist, besonders in neuen Spielen wie eben Star Citizen, und wenn ein Spiel soviel VRAM braucht, behaupte ich erstmal, dass es schlecht designed wurde und zuwenig auf LoD geachtet wurde.

Für marktreifes 4K ist es einfach noch zu früh, da die meisten Higher-End-Karten noch immer selbst bei 1080p in vielen grafisch aufwendigen Spielen keine stabilen 60FPS halten können.

Ich bin hier nicht mehr online, nehmt mir gerne jeden x-beliebigen Thread weg, den ihr gerne hättet. Ich erteile die grundsätzliche Erlaubnis für alle meine noch offenen Threads.
Zitieren
25.07.2015
Andromachus Offline
Changeling
*


Beiträge: 801
Registriert seit: 16. Jul 2013

RE: Hardware-Ecke
(25.07.2015)GlaDos schrieb:  Du hast nicht ganz kapiert was ich damit sagen wollte: Nicht jeder hat die möglichkeit 10k€ für einen PC auszugeben oder will das überhaupt oder hat einen nutzen davon.
Aber das wird auch das letzte sein was ich generell antworten werde.... mir wirds zu blöd.

Darum gings ja gar nie - aber gut daß du es jetzt eingesehen hast ;-)

Zitat:Hast du tests zu der Fury gelesen? Tatsache ist das bei 4k der 4GB Speicher aktuell nicht limitiert.

Siehe oben, bei aktuellen Spielen (es ist nicht darüber ausgesagt, wie es in 1 bis 2 Jahren aussieht), und vornehmlich bei solchen die Lowres Textures verwenden.

Das sagt noch nichts darüber aus, wie das bei ordentlichen Einstellungen, mit Texturmods etc. bei kommenden Spielen aussieht.

(25.07.2015)GearTight schrieb:  HBM ist zurzeit Bleeding-Edge-Technologie, und daher sowohl schwierig herzustellen als auch teuer. Die Fury ist für die Leute, die das Neuste vom Neusten in Sachen Grafiktechnologie wollen.

Aufgrund der 4GB Limitierung, ist es das eben nicht.

Zitat:Aber nein, man gibt lieber deutlich mehr aus für Karten von Nvidia, die wie Apple bloß durch Hype und hohe Preise die Leute reinziehen können, weil "innovativ" ist die Firma ganz sicher nicht.

Tatsächlich standen 4x 290x mit je 8GB auf der Favoritenliste, daher auch das fette Netzteil.
Ich bin nicht markentreu, sondern kaufe das, was am besten funktioniert.

Zitat:Bei Intel kann ich es mittlerweile durchaus verstehen, die FX-Chips von AMD, wenn gut, lassen in ihrer Singlecore-Performance doch etwas zu wünschen übrig, speziell in Sachen Virtualisierung und Emulation.
Diesen Vorteil sehe ich bei AMD vs. Nvidia nicht.

In Sachen Effizienz, TDP, I/O Leistung, DRAM Anbindung, Performance über allem steht der FX auch schlecht da.
Persönlich hätte ich gerne Power8 Technologie. Leider steht die Consumer-Welt auf x86.

Zitat:Und "4GB sind auf High-End-Karten heutzutage einfach nicht mehr zeitgemäß", bitte was? Die meisten Leute können sich ja nicht einmal einen 4K-Monitor leisten, und selbst Downsampling von 4K auf 1080p verbraucht in der Regel nicht mehr als 3,5-4GB an VRAM.

Nun, solche Leute sind auch die falsche Zielgruppe für High-End GPUs. Da schlägt man lieber im Midrange Bereich zu, und wie schon 2013, so sind 4GB VRAM dort auch heute noch angemessen.

Ich hab bei SC schon 7GB VRAM verbraucht. Muß mal noch mit X-Plane testen, und SKyrim installieren, beide Games brauchen ordentlich Memory.

Zitat:Dass diese ganzen neuen Karten mit mehr als 4GB an VRAM ausgeliefert werden, sehe ich, bis man mir einen konkreten Mehrwert demonstrieren kann, eher als Marketing-Gag an, um den Kunden weißzumachen, dass sie "das brauchen". Texturen kann man schon jetzt nicht mehr viel schärfer machen, ohne dass erneut der Mehrwert zu gering ist, besonders in neuen Spielen wie eben Star Citizen, und wenn ein Spiel soviel VRAM braucht, behaupte ich erstmal, dass es schlecht designed wurde und zuwenig auf LoD geachtet wurde.

Texturen kann man sehr wohl schärfer machen. Die meisten Spiele kommen mit Matsche-Texturen daher, was ja auch immer wieder und wieder kritisiert wurde. Und das sieht man. Auch bei 1080p. Nicht umsonst ist die Modding-Community so aktiv und zeigt den Devs, wo der Hammer hängt.

Es erstaunt mich, daß es so vielen Leuten fremd zu sein scheint, ein wenig in die Zukunft zu planen. Man kann seine Games so hinfummeln, daß es eben noch mit 4GB reicht? Wunderbar, man braucht nie mehr (und alle anderen natürlich auch nicht, die sind ja doof wenn sie mehr kaufen!!111einself) - die ganze Entwicklung der letzten 2 Jahre ist nur Marketinggesabbel! Und morgen kommt dann ein neues Game heraus und ein neuer Mod und dann ist das Geheul groß. Hauptsache man kann dann alle paar Monate schrauben anstatt ein System zu haben, das ne Weile funktioniert.

Zitat:Für marktreifes 4K ist es einfach noch zu früh, da die meisten Higher-End-Karten noch immer selbst bei 1080p in vielen grafisch aufwendigen Spielen keine stabilen 60FPS halten können.

Das mag bei dir so sein, für viele hat die 4k Ära schon begonnen. Andere nehmen 21:9 curved Monitore oder hängen drei 2560er screens aneinander.

Das einzige Argument, was gegen 4k spricht, ist die Abwesenheit von DP1.3, und damit einhergehende Beschränkung auf 60fps pro Screen.

Das Leben ist kein Ponyville

[Bild: andromachus_white.png]
(Dieser Beitrag wurde zuletzt bearbeitet: 25.07.2015 von Andromachus.)
Zitieren
25.07.2015
LightningGear Offline
Titeljäger
*


Beiträge: 9.518
Registriert seit: 06. Jun 2012

RE: Hardware-Ecke
(25.07.2015)Andromachus schrieb:  
(25.07.2015)GearTight schrieb:  HBM ist zurzeit Bleeding-Edge-Technologie, und daher sowohl schwierig herzustellen als auch teuer. Die Fury ist für die Leute, die das Neuste vom Neusten in Sachen Grafiktechnologie wollen.

Aufgrund der 4GB Limitierung, ist es das eben nicht.

Die daher stammt, dass diese Technologie teuer und schwierig herzustellen ist, und AMD das Geld für weiteres R&D ohne Herausbringen eines Produkts schlicht und ergreifend zurzeit nicht hat.

(25.07.2015)Andromachus schrieb:  
Zitat:Aber nein, man gibt lieber deutlich mehr aus für Karten von Nvidia, die wie Apple bloß durch Hype und hohe Preise die Leute reinziehen können, weil "innovativ" ist die Firma ganz sicher nicht.

Tatsächlich standen 4x 290x mit je 8GB auf der Favoritenliste, daher auch das fette Netzteil.
Ich bin nicht markentreu, sondern kaufe das, was am besten funktioniert.

Ja, warum hast du das dann nicht gemacht? Eine 290X mit 8GB kriegt man locker für unter 400€, während eine TITAN X stolze 1000€ pro Stück kostet. Da hättest du zwischen 1400 und 1500€ gespart. Für den Preis, den du für 3 TITAN X gezahlt hast, hättest du selbst 4 GTX 980Ti abgreifen können, welche rund 700€ das Stück kosten.

(25.07.2015)Andromachus schrieb:  
Zitat:Bei Intel kann ich es mittlerweile durchaus verstehen, die FX-Chips von AMD, wenn gut, lassen in ihrer Singlecore-Performance doch etwas zu wünschen übrig, speziell in Sachen Virtualisierung und Emulation.
Diesen Vorteil sehe ich bei AMD vs. Nvidia nicht.

In Sachen Effizienz, TDP, I/O Leistung, DRAM Anbindung, Performance über allem steht der FX auch schlecht da.
Persönlich hätte ich gerne Power8 Technologie. Leider steht die Consumer-Welt auf x86.

Rein aus Interesse, inwiefern hebt sich Power8 von x86-64 ab?

(25.07.2015)Andromachus schrieb:  
Zitat:Und "4GB sind auf High-End-Karten heutzutage einfach nicht mehr zeitgemäß", bitte was? Die meisten Leute können sich ja nicht einmal einen 4K-Monitor leisten, und selbst Downsampling von 4K auf 1080p verbraucht in der Regel nicht mehr als 3,5-4GB an VRAM.

Nun, solche Leute sind auch die falsche Zielgruppe für High-End GPUs. Da schlägt man lieber im Midrange Bereich zu, und wie schon 2013, so sind 4GB VRAM dort auch heute noch angemessen.

Ich hab bei SC schon 7GB VRAM verbraucht. Muß mal noch mit X-Plane testen, und SKyrim installieren, beide Games brauchen ordentlich Memory.

X-Plane 10 erwartet eine Karte mit 2GB an VRAM, und Skyrim sogar bloß eine mit 1GB VRAM. Mods zähle ich persönlich nicht zu solchen Diskussionen hinzu.
Bei X-Plane kommt außerdem noch hinzu, dass das Spiel auf Realkarten basiert, die ohnehin eine vergleichsweise recht niedrige Auflösung haben.

(25.07.2015)Andromachus schrieb:  
Zitat:Dass diese ganzen neuen Karten mit mehr als 4GB an VRAM ausgeliefert werden, sehe ich, bis man mir einen konkreten Mehrwert demonstrieren kann, eher als Marketing-Gag an, um den Kunden weißzumachen, dass sie "das brauchen". Texturen kann man schon jetzt nicht mehr viel schärfer machen, ohne dass erneut der Mehrwert zu gering ist, besonders in neuen Spielen wie eben Star Citizen, und wenn ein Spiel soviel VRAM braucht, behaupte ich erstmal, dass es schlecht designed wurde und zuwenig auf LoD geachtet wurde.

Texturen kann man sehr wohl schärfer machen. Die meisten Spiele kommen mit Matsche-Texturen daher, was ja auch immer wieder und wieder kritisiert wurde. Und das sieht man. Auch bei 1080p. Nicht umsonst ist die Modding-Community so aktiv und zeigt den Devs, wo der Hammer hängt.

Ja, okay, bei Modding kann man das natürlich sehen. Mir geht es aber um die Vanilla-Ausgaben, und dort wird deswegen mit "Matsche-Texturen" gearbeitet, weil diese a) günstiger zu erstellen sind und b) auf den PCs einer größeren Menge an Leuten gescheit dargestellt werden können.

(25.07.2015)Andromachus schrieb:  Es erstaunt mich, daß es so vielen Leuten fremd zu sein scheint, ein wenig in die Zukunft zu planen. Man kann seine Games so hinfummeln, daß es eben noch mit 4GB reicht? Wunderbar, man braucht nie mehr (und alle anderen natürlich auch nicht, die sind ja doof wenn sie mehr kaufen!!111einself) - die ganze Entwicklung der letzten 2 Jahre ist nur Marketinggesabbel! Und morgen kommt dann ein neues Game heraus und ein neuer Mod und dann ist das Geheul groß. Hauptsache man kann dann alle paar Monate schrauben anstatt ein System zu haben, das ne Weile funktioniert.

Schön und gut, aber in dem Moment, in dem solche Monster wirklich ihre Leistung großflächig entfalten können, gibt es schon wieder was besseres, das ganz davon abgesehen auch noch deutlich weniger Strom verbraucht. Und Computertechnologie entwickelt sich so schnell, dass es meiner Ansicht sinnlos ist, "in die Zukunft zu planen".

(25.07.2015)Andromachus schrieb:  
Zitat:Für marktreifes 4K ist es einfach noch zu früh, da die meisten Higher-End-Karten noch immer selbst bei 1080p in vielen grafisch aufwendigen Spielen keine stabilen 60FPS halten können.

Das mag bei dir so sein, für viele hat die 4k Ära schon begonnen. Andere nehmen 21:9 curved Monitore oder hängen drei 2560er screens aneinander.

Ja, das sind wieder die Leute, die ich oben erwähnt habe, die das neuste vom Neuen haben wollen. Ich rede hier von den Leuten, die keinen überquellenden Geldbeutel haben. Die wenigsten können sich zurzeit 4K-Monitore oder solche Monster-PCs leisten. Wir stecken tief in der 1080p-Ära, mit Ausblick auf die Zukunft, die von 4K geprägt sein wird.

Ich bin hier nicht mehr online, nehmt mir gerne jeden x-beliebigen Thread weg, den ihr gerne hättet. Ich erteile die grundsätzliche Erlaubnis für alle meine noch offenen Threads.
(Dieser Beitrag wurde zuletzt bearbeitet: 25.07.2015 von LightningGear.)
Zitieren
25.07.2015
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Zitat:Aber nein, man gibt lieber deutlich mehr aus für Karten von Nvidia, die wie Apple bloß durch Hype und hohe Preise die Leute reinziehen können, weil "innovativ" ist die Firma ganz sicher nicht.
-PhysX? Gibt's schon, nennt sich Havok und Bullet und ist plattformunabhängig.
-Gameworks? Schlechter Deckmantel der "Vereinfachung von Spieleentwicklung", um sich einen Vorteil gegenüber AMD in Sachen Performance zu verschaffen.
-Hairworks? AMD did it, nennt sich TressFX.
-TITAN? Glorifizierte Workstation-Karten, die an Gamer vermarktet werden, obwohl es letztendlich bloß High-End-GTX-Karten mit mehr Speicher und doppelt so hohem Preisschild sind.

Bei Intel kann ich es mittlerweile durchaus verstehen, die FX-Chips von AMD, wenn gut, lassen in ihrer Singlecore-Performance doch etwas zu wünschen übrig, speziell in Sachen Virtualisierung und Emulation.
Diesen Vorteil sehe ich bei AMD vs. Nvidia nicht.

Schön und gut, aber in dem Moment, in dem solche Monster wirklich ihre Leistung großflächig entfalten können, gibt es schon wieder was besseres, das ganz davon abgesehen auch noch deutlich weniger Strom verbraucht. Und Computertechnologie entwickelt sich so schnell, dass es meiner Ansicht sinnlos ist, "in die Zukunft zu planen".

Ist ja fast nur ne quote der Post aber besser hätte ich es nicht sagen können.

Mods ist sowieso schwachsinn diese zu erwähnen wie gesagt:
Zitat:Du kannst jedes System mit extremen Settings in die knie zwingen, 4k oder höher, DS, AA Modi, am besten SSAA und die FPS werden ganz schnell ganz klein.
Oder auch mit extremen ´Mod gebrauch´


Zitat:aber gut daß du es jetzt eingesehen hast ;-)
Oh ich hab nur keine lust mehr zu schreiben weil es sich nicht lohnt mit dir zu diskutieren, da du davon ausgehst das jeder so ein Monster braucht oder das Geld dazu hat oder alles andere schrott ist oder jeder dein Nutzungsverhalten aufweist, nicht das du denkst das ich dir jetzt bei allem zustimme. [Bild: cl-rar-seriously.png]

Ich frag mich sowieso warum wir diskutieren, jeder wird auf seiner meinung beharren, man kennts doch zu genüge.
(Dieser Beitrag wurde zuletzt bearbeitet: 25.07.2015 von Captain Gulasch.)
Zitieren
25.07.2015
Demonheart Offline
Great and Powerful
*


Beiträge: 302
Registriert seit: 13. Mai 2013

RE: Hardware-Ecke
Huhu Leute,
Darf ich diese Frage eigentlich hier stellen? Wenn nicht dann bitte darauf aufmerksam machen.

Also es geht darum, dass ich mir einen neuen Monitor zulegen möchte. Da ich aber nicht das stärkste System habe, würde ich gerne bei 900p bleiben. Erstmal kurz zu meiner Hardware:

Grafikkarte: Sapphire R9 270 (OC)
Prozessor: AMD FX-6300 6-Core 3,50GHz
RAM: 8GB

Wenn ich jetzt auf ein 1080p Monitor umstellen würde, müsste ich ja einige Grafikeinstellungen bei moderneren Spielen runterschrauben müssen, da ich das nur ungern möchte, würde ich gerne bei 900p bleiben. Jetzt stellt sich mir nur die Frage ob es gute 900p Monitore fürs Gaming gibt.
Mein jetztiger hat nur VGA und ist wahrlich nicht der beste. Gibt es 900p Monitore mit HMDI Anschluss oder gibt es diese nur mit DVI/VGA?
Kennt ihr gute 900p Monitore?

[Bild: dewqhkn-fca65541-353a-4012-93fe-0dcabe3b...qOm0Afu8h0]
Zitieren
25.07.2015
LightningGear Offline
Titeljäger
*


Beiträge: 9.518
Registriert seit: 06. Jun 2012

RE: Hardware-Ecke
(25.07.2015)Demonheart schrieb:  Grafikkarte: Sapphire R9 270 (OC)
Prozessor: AMD FX-6300 6-Core 3,50GHz
RAM: 8GB

Mit dieser Hardware müsste es eigentlich schon möglich sein, auch bei 1080p die 60FPS auf niedrigeren Einstellungen zu halten, aber da dir bessere Grafik wichtiger ist, hab ich mal geschaut. Es gibt defintiv solche Monitore, allerdings kosten sie meist genauso viel oder gar mehr wie gleichwertige wie 1080p-Monitore, oder sie haben nur einen VGA-Eingang. Gegen VGA ist an sich auch erstmal nichts einzuwenden, ich nutz auch nur einen 1080p-VGA-Monitor.
Ich hab aber auf Amazon einen BenQ-Monitor mit 900p gesehen, für 100€.

Ich bin hier nicht mehr online, nehmt mir gerne jeden x-beliebigen Thread weg, den ihr gerne hättet. Ich erteile die grundsätzliche Erlaubnis für alle meine noch offenen Threads.
Zitieren
25.07.2015
Nic0 Offline
Pegasus Masterrace


Beiträge: 4.000
Registriert seit: 25. Jun 2014

RE: Hardware-Ecke
Es sind etwa 33% mehr Pixel mit 1080p. Der zusätzliche Rechenaufwand sollte aber marginal sein
sein. Eine höhere Ausgangsauflösung ist in der Regel auch sinnvoller als höhere Texturauflösungen.

Du kannst dem Spiel auch einfach sagen, dass es nur mit 1600x900 rendert. Der Rest wird hochskaliert, sofern du im Treiber die richtige Auflösung für deinen Monitor eingestellt hast. Den Monitor würde ich nicht hochskalieren lassen. Ein 1080p Monitor ist schon sinnvoll.

Being gay is bad
But lying is worse
So just realize you have
A curable curse
And turn it off

Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 7 Gast/Gäste