29.11.2016 |
Captain Gulasch
Wonderbolt
Beiträge: 2.417
Registriert seit: 23. Jan 2013
|
RE: Hardware-Ecke
(29.11.2016)mowny schrieb: Der Trend zu mehr Cores statt mehr Takt ist weiterhin ungebrochen, zum Beispiel mit dem da. Ob das gerade beim Gaming was nützt ist wieder eine ganz andere Frage.
Server CPU, ja, da muss bzw. ist aber auch alles Parallelisiert.
Im "Consumer" Markt findest du max. den 6950x mit 10 Kernen, der richtet sich aber schon wieder an Leute mit zuviel Geld oder als Workstation CPU, nichts für den normal Anwender.
Der 6900k und 6850k reihen sich auch dazu ein (wobei der 6850k einfach nur ein höher getakteter 6800k mit mehr PCI Lanes ist, dafür zahlt man aber auch einen ordentlichen aufpreis)
Die i3, i5 und die Quadcore i7 sind der Haupteil, was 2-4 native Kerne wären.
Der 6800k richtet sich auch schon wieder eher an die Enthusiasten, ist gleichzeitig auch die einzig halbwegs sinnvolle Option ist wenn man bereits einen SandyBridge oder höher sein eigen nennt, da der halt 2 Kerne mehr bietet.
Ab Sandy (2500k oder 2600k) ist man spätestens mit OC auf ~4,5GHz aber wieder sehr gut dabei.
Die Zahl der Spiele die mehr als 4 threads nutzen können wächst zwar, das ausschlaggebende ist aber immernoch min. 4 Kerne mit möglichst hoher IPC, dann hat man für gewöhnlich ruhe.
Ändern wird sich das vielleicht mit Zen oder wenn Intel mit Coffee Lake 6 Kerner in den Mainstream Markt bringt.
|
|
|
29.11.2016 |
404compliant
GalaCon Volunteer-Stratege
Carrot Not Found
Beiträge: 8.347
Registriert seit: 23. Okt 2011
|
RE: Hardware-Ecke
(29.11.2016)Mikami-Katze schrieb: Effektiv ist der FX 6300 ein Triplecore, außer deine Anwendung begnügt sich mit Integer-Rechnungen, da kann sie von 6 Kernen profitieren.
So einfach kann man es sich halt nicht machen. Das Modul-Konzept mit ein paar gemeinsam genutzten, und auch mehrfach vorhandenen Ressourcen war eigentlich nicht soo schlecht, die Engpässe liegen viel mehr im Detail. Insbesondere dürfte das Konzept ja bei Single-Thread keinerlei Nachteile haben, und ein 3x2-Kerner dürfte nicht gegen einen i3 2-Kerner verlieren können.
Nein, den Bulldozern fehlt es vielmehr beim schnellen Befeuern der Rechenwerke mit Instruktionen, und den dadurch erreichbaren Instructions-per-cycle. Da hilft es auch nicht, noch mehr Fließkomma-Rechenwerke in den Ring zu werfen, oder diese exklusiv nur für einen Kern zu nutzen.
(Dieser Beitrag wurde zuletzt bearbeitet: 29.11.2016 von 404compliant.)
|
|
|
30.11.2016 |
Nic0
Pegasus Masterrace
Beiträge: 4.000
Registriert seit: 25. Jun 2014
|
RE: Hardware-Ecke
Man muss sich auch darauf einstellen, dass in etwa 4 Jahren wohl Schluss mit den bisherigen Prozessoren sein wird. Wir sind momentan bei 14nm, nächstes Jahr werden es 10nm und 2019 dann vermutlich 7nm und da kommt langsam der Punkt, wo es einfach nicht mehr kleiner geht. Physisch größer kann man die Chips nicht bauen, ohne dass man eine Turbine drauf packen muss und ich glaube auch nicht, dass immer mehr Cores langfristig so eine gute Lösung sind. Worin soll das enden? Dass dann jedes meiner Chrome Tabs einen eigenen Core hat?
Being gay is bad
But lying is worse
So just realize you have
A curable curse
And turn it off
|
|
|
30.11.2016 |
Captain Gulasch
Wonderbolt
Beiträge: 2.417
Registriert seit: 23. Jan 2013
|
RE: Hardware-Ecke
Naja okay die nm Zahlen sind geschönt, echte 14, 10 oder 7nm sind das nicht.
Der letzte ausweg, sofern das bei CPUs überhaupt möglich ist, wäre wie Speicher zu stapeln.
Stacken, 3D wie auch immer.
Die Hoffnung das sich am Markt was ändert liegt wirklich bei Zen, wenn man sich z.B. Kaby Lake anschaut sieht man das sich nichts tut.
Keine höhere IPC, mit 4,5GHz einen noch höheren Grundtakt, mit guter Kühlung sollen 5GHz drinne sein womit der Prozessor 1040pkt im Cinebench erreicht, dafür muss man aber sehr hohe Temperaturen in kauf nehmen. (i7 7700k)
Der Nachfolger wird sicher auch nicht besser, wenn wir Glück haben bekommen wir da auch nur wieder 5% höhere IPC.
|
|
|
30.11.2016 |
Conqi
(K)ein Fag
Beiträge: 5.918
Registriert seit: 04. Mär 2012
|
RE: Hardware-Ecke
Ich bin ja durchaus gespannt, was für Lösungen uns erwarten bezüglich Prozessoren in der Zukunft. Stapeln dürfte schwierig werden, denn die Leistungsaufnahme steigt ja trotzdem und schon heute ist Kühlung eine der aufwendigsten Aufgaben, zumindest bei Servern. Vielleicht rennen wir ja tatsächlich in absehbarer Zeit in eine Grenze und dann bleiben "nur" ein paar architektonische Anpassungen. Müsste man immerhin nicht mehr so oft aufrüsten.
Neue Signatur
|
|
|
30.11.2016 |
404compliant
GalaCon Volunteer-Stratege
Carrot Not Found
Beiträge: 8.347
Registriert seit: 23. Okt 2011
|
RE: Hardware-Ecke
Stacking hilft nur, wenn Platzprobleme dringender sind als Wärmeprobleme. Momentan wäre es wohl effizienter, in die Breite zu gehen, was bei Serverchips ja auch Praxis ist. Die Wärmeprobleme löst man so aber nicht.
Die Hoffnung der Branche liegt daher weiter in der EUV-Lithografie, damit ließe sich erst mal weiter shrinken. Nur ist der Prozess immer noch ungleich aufwändiger und damit teurer.
|
|
|
30.11.2016 |
Conqi
(K)ein Fag
Beiträge: 5.918
Registriert seit: 04. Mär 2012
|
RE: Hardware-Ecke
Aber auch EUV Lithografie bringt keine langfristige Lösung, da gelangt man schnell in den Bereich, in dem mit Siliziumatome nicht viel mehr, bzw. weniger, machbar ist. Dann wird sich zeigen, ob aus Graphen tatsächlich mal was wird, oder wie viel sich durch weitere in Hardware implementierte Funktionen machen lässt.
Neue Signatur
|
|
|
05.12.2016 |
Der Unbekannte
Enchantress
Beiträge: 735
Registriert seit: 17. Apr 2012
|
RE: Hardware-Ecke
Ich frage mich immer noch was Sapphire mit deren Karte gemacht hat....
|
|
|
05.12.2016 |
Captain Gulasch
Wonderbolt
Beiträge: 2.417
Registriert seit: 23. Jan 2013
|
RE: Hardware-Ecke
Naja, ich hatte die Rx480 schonmal testen können und kann die Tests so nicht bestätigen.
(26.09.2016)Captain Gulasch schrieb: Ich hab am WE mal eine Sapphire Rx480 Nitro einbauen können und testen können.
Die ganzen Berichte auf den PC Seiten sind übertrieben (sprich das die Karte zu laut und heiß ist)
Unter Volllast erreichte die 65-70°C, in einem BitFenix Neos und bleibt dabei leiser als meine 390 Nitro.
Performance wäre ca. auf dem Niveau der R9 390.
Allerdings war in dem PC ein Phenom II 955 @ 3,6GHz und rennt damit deutlich schneller ins CPU limit als mein 4,1GHz 4690k, daher kann man das nur ganz grob vergleichen.
|
|
|
07.12.2016 |
Conqi
(K)ein Fag
Beiträge: 5.918
Registriert seit: 04. Mär 2012
|
RE: Hardware-Ecke
http://www.pcgameshardware.de/Nvidia-Gef...h-1215300/
An alle Nvidia Nutzer mit 1080p HDMI-Monitor, ruhig mal den "dynamischen Ausgabebereich" im Treiber checken. Bei meinem Freund war das offensichtlich schon seit Ewigkeiten falsch eingestellt und das Bild war unnötig deutlich schlechter. Aber AMD sind ja die mit den schlechten Treibern, ne?
Neue Signatur
|
|
|
07.12.2016 |
Pandora51
Royal Guard
Beiträge: 3.095
Registriert seit: 04. Sep 2012
|
RE: Hardware-Ecke
Okay dann darf ich ja nochmal einen Rant dazu anbringen:
Der "Fehler" existiert schon EWIG. Seit über 4 Jahren schlage ich mich damit rum UND Nvidia kriegt es nicht auf die Reihe eine vernünftige Lösung anzubieten. JEDESMAL muss man an diesen Crap denken, wenn eine Neuinstallation vorgenommen wird oder einen neues/ anderes Gerät angeschlossen wird. Das Problem mit eingeschränkter Dynamik existiert auch mit Displayport. Wie kann das bitte sein?
ES NERVT und dafür hasse ich Nvidia
Always be yourself unless you can be a dragon, then always be a dragon
(Dieser Beitrag wurde zuletzt bearbeitet: 07.12.2016 von Pandora51.)
|
|
|
07.12.2016 |
Captain Gulasch
Wonderbolt
Beiträge: 2.417
Registriert seit: 23. Jan 2013
|
RE: Hardware-Ecke
Ey AMD Treiber sind voll kackjes ey.
Mal gucken ob dieser Mythos sich irgendwann mal umdreht, den gibts ja nur weil das rumerzählt wird und nicht auf fakten basiert.
Von Nvidia hingegen hört man relativ häufig von Problemen die nicht auf einige wenige beschränkt sind mittlerweile. Sind sich in ihrer Position als Marktführer wohl etwas zu sicher.
Edit: Achja morgen kommt die Neuauflage von Crimson, Crimson ReLive, mal gucken was der bringt.
Zitat:Der Leak zeigt aber das Vorhandensein neuer Power-Target- und Frame-Limiter-Funktionen sowie einer Möglichkeit, direkt aus dem Treiber bzw. einem Zusatzprogramm heraus Aufzeichnungen und Livestreams aus Spielen zu erstellen. Wohl auch geplant ist die Ausweitung der WattMan-Unterstützung für ältere Karten sowie die Möglichkeit, FreeSync nun auch auszuführen, wenn die Anwendung im Vollbild-Fenstermodus ausgeführt wird.
|
|
|
07.12.2016 |
Der Unbekannte
Enchantress
Beiträge: 735
Registriert seit: 17. Apr 2012
|
RE: Hardware-Ecke
Danke dafür, war bei mir auch.
Wenn ich aber ehrlich war habe ich das auch nicht gemerkt, als ich von AMD auf nVidia gewechselt habe.
Jetzt merke ich einen Unterschied.
Beim Treiber, das liegt einfach daran das HDMI eher PC untypisch ist, meistens ist es doch DP.
Kann man sehen wie man will.
|
|
|
07.12.2016 |
Conqi
(K)ein Fag
Beiträge: 5.918
Registriert seit: 04. Mär 2012
|
RE: Hardware-Ecke
Also bei den meisten, die ich kenne, ist eher HDMI im Einsatz. DP ist zwar theoretisch eher der neue Universal Monitor-Anschluss, aber die Realität sieht (noch) etwas anders aus. Zumal ich das trotzdem nicht als Ausrede gelten lassen würde.
Neue Signatur
|
|
|
07.12.2016 |
Nic0
Pegasus Masterrace
Beiträge: 4.000
Registriert seit: 25. Jun 2014
|
RE: Hardware-Ecke
(07.12.2016)Conqi schrieb: http://www.pcgameshardware.de/Nvidia-Gef...h-1215300/
An alle Nvidia Nutzer mit 1080p HDMI-Monitor, ruhig mal den "dynamischen Ausgabebereich" im Treiber checken. Bei meinem Freund war das offensichtlich schon seit Ewigkeiten falsch eingestellt und das Bild war unnötig deutlich schlechter. Aber AMD sind ja die mit den schlechten Treibern, ne?
Bei meinem Monitor ist der Unterschied gleich 0, was ich etwas seltsam finde.
Würdest du bitte mal dieses Bild auf dem Monitor deines Freundes legen (Monitor auf Werkseinstellungen) und schauen, welche Kästchen in den beiden Modi noch erkennbar sind? Ist esein PC Monitor oder ein TV?
Theoretisch müsste man bei dem begrenzten Dynamikbereich gar keine Kästchen mehr erkennen können.
(07.12.2016)Pandora51 schrieb: Okay dann darf ich ja nochmal einen Rant dazu anbringen:
Der "Fehler" existiert schon EWIG. Seit über 4 Jahren schlage ich mich damit rum UND Nvidia kriegt es nicht auf die Reihe eine vernünftige Lösung anzubieten. JEDESMAL muss man an diesen Crap denken, wenn eine Neuinstallation vorgenommen wird oder einen neues/ anderes Gerät angeschlossen wird. Das Problem mit eingeschränkter Dynamik existiert auch mit Displayport. Wie kann das bitte sein?
ES NERVT und dafür hasse ich Nvidia
Es hat tatsächlich einen sehr guten Grund, warum das so ist.
Mich hat das auch interessiert und ich werde mal bis zum Wochenende ein paar Tests machen. Spätestens Sonntag werde ich das weiter ausführen. Ich bin momentan noch am Daten sammeln.
Being gay is bad
But lying is worse
So just realize you have
A curable curse
And turn it off
|
|
|
07.12.2016 |
Conqi
(K)ein Fag
Beiträge: 5.918
Registriert seit: 04. Mär 2012
|
RE: Hardware-Ecke
(07.12.2016)Nic0 schrieb: Würdest du bitte mal dieses Bild auf dem Monitor deines Freundes legen (Monitor auf Werkseinstellungen) und schauen, welche Kästchen in den beiden Modi noch erkennbar sind? Ist esein PC Monitor oder ein TV?
Es ist ein (recht billiger) TN Monitor. Es sind in beiden Einstellungen jeweils alle Kästchen zu erkennen. Beim vollen Dynamikbereich ist aber gerade bei den schwarzen Kästchen zu erkennen, dass diese dunkler sind.
(07.12.2016)Nic0 schrieb: Theoretisch müsste man bei dem begrenzten Dynamikbereich gar keine Kästchen mehr erkennen können.
Ist dem so? Müsste das Signal nicht einfach "gestaucht" werden? Also ein Schwarzwert von 0 wird als 16 gesendet und beispielsweise ne 2 dann als 17 oder wird wirklich alles unter 16 einfach gleich behandelt und verschluckt? Also dass es nicht so ist offensichtlich, hat der Test ja gezeigt, aber in der Theorie meine ich.
Neue Signatur
|
|
|
07.12.2016 |
Nic0
Pegasus Masterrace
Beiträge: 4.000
Registriert seit: 25. Jun 2014
|
RE: Hardware-Ecke
(07.12.2016)Conqi schrieb: Ist dem so? Müsste das Signal nicht einfach "gestaucht" werden? Also ein Schwarzwert von 0 wird als 16 gesendet und beispielsweise ne 2 dann als 17 oder wird wirklich alles unter 16 einfach gleich behandelt und verschluckt? Also dass es nicht so ist offensichtlich, hat der Test ja gezeigt, aber in der Theorie meine ich.
Das ist auch möglich. Ein TV würde in manchen Situationen einfach die Werte abschneiden.
Es kommt teilweise auch auf die Software an (bei Video).
Ich habe morgen Zugang zu Referenzmonitoren. Da wollte ich das mal genau testen.
Sind nur die Unterschiede der schwarzen Kästchen zu dem 0-Schwarz geringer oder ist das 0-Schwarz beim Vollbereich auch schwärzer?
Being gay is bad
But lying is worse
So just realize you have
A curable curse
And turn it off
|
|
|
07.12.2016 |
Conqi
(K)ein Fag
Beiträge: 5.918
Registriert seit: 04. Mär 2012
|
RE: Hardware-Ecke
Wirkte eher so als wäre bei geringerem Dynamikumfang nur der Kontrast höher und das 0-Schwarz war eigentlich gleich. Allerdings ist der Monitor wie gesagt auch eher nicht so toll und ich hab nur kurz geguckt.
Neue Signatur
|
|
|
|