In einigen Spielen wird HT/SMT deaktiviert für mehr FPS.
4C/4T auf 4C/8T klingt für mich daher nur in speziellen Fällen sinnvoll.
In einigen Spielen wird HT/SMT deaktiviert für mehr FPS.
4C/4T auf 4C/8T klingt für mich daher nur in speziellen Fällen sinnvoll.
Freedom's just another word for nothing left to lose
In welchen Games ist das denn so? Bisher habe ich noch keinen Nachteil bemerkt. HT hart deaktivieren geht imho nur übers Bios, was echt umständlich wäre. Ansonsten lässt sich auch noch in Windows die Zugehörigkeit eines Prozesses zu einem logischen Kern einstellen.
#KriegIstFrieden
#FreiheitIstSklaverei
#UnwissenheitIstStärke
Öfters darüber gelesen, aber auf die schnelle keine gute Quelle parat.
Googlesuche:
https://www.techpowerup.com/forums/t...g-test.219417/
Hier hat jemand Spiele verglichen mit einem 6700k, einmal HT on einmal off.
Das erste Video nach einer Google Suche war ein Beispiel zu CS GO, falls du sowas suchst.
Aber es kann auch so aussehen:
https://www.techpowerup.com/forums/t.../#post-3806309
Gründe pro oder contra HT/SMT kann es bei verschiedenen Applikationen genügend geben.
So wird zB. der Cache geteilt und je nach Programm kann es wenige oder viele Stellen geben, bei denen von HT profitiert werden könnte.
Dazu kommen dann halt noch Spectre und co.
https://www.tomshardware.co.uk/intel...ews-60647.html
Freedom's just another word for nothing left to lose
Zumindestens bei einem 4-Kernen würde ich HT jetzt nicht deaktivieren, denn die Tendenz geht ja dahin, Multithreading vermehrt zu nutzen aufgrund der steigenden Kernezahl. Dadurch wird dann auch HT nützlicher.
Intel empfiehlt, HT zu deaktivieren?
#KriegIstFrieden
#FreiheitIstSklaverei
#UnwissenheitIstStärke
Du kannst halt mit diesen Sidechannel Attacken geschützte Daten auslesen.
Das ist eine gravierende Sicherheitslücke und inzwischen, nachdem man weiß wie, ziemlich einfach umzusetzen.
https://arxiv.org/pdf/1801.01203.pdf
Hier wird das Ganze grundsätzlich erklärt, aber jetzt weniger direkt auf HT/SMT, sondern mehr bzgl. Branch Prediction.
Freedom's just another word for nothing left to lose
So wie Intel es implementiert hat ist HT wohl eine große Sicherheitslücke (Stichwort Zombieload)...
Ob einem das an einem Desktop-Rechner tangiert -> muß man sich selbst ins Thema einlesen und entscheiden...
Intel hat für sich die Konsequenz gezogen, im Desktopsegment kaum noch CPUs mit HT anzubieten.
--> https://geizhals.de/?cat=cpu1151&v=l...%7E820_1151+v2
Den Rest kann man sich selber recherchieren...
Geändert von drdope (09. Oktober 2019 um 23:36 Uhr)
für Heimsysteme ists egal dafür muss er ja erst aufs system, problem ists nur auf server mit VMs, trotzdem ists ein witz wie billig Intel damit davon kommt ...
Technologieoffenheit bedeutet Entscheidungsschwäche
Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!
Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.
Für dich ist Intels Versuch, seine Prozessoren möglichst teuer zu verkaufen, indem man für alle außer Popel- und Topmodelle HT deaktiviert, damit man ein Dutzend Preisstufen mit winzigen Performanceverbesserungen anbieten kann, eine Reaktion auf die Sideload-Sicherheitslücke? Oh sweet summer child
Primär betrifft das Server, das ist richtig. Aber halt nicht nur, im Prinzip kann das (fast) jede Software betreffen, siehe Heise-Artikel.
Much of the social history of the Western world, over the past three decades, has been a history of replacing what worked with what sounded good.
Naja
1.) nutze ich Firefox =D
2.) Gibt es genug andere Lücken wo Viren usw eindringen können.
Bei Server mit vermieteten HW ist halt das Problem das der Angreifer ja hoch offiziell eine Vm dort hat und von dort aus dann die anderen angreifen kann.
Technologieoffenheit bedeutet Entscheidungsschwäche
Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!
Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.
https://www.geforce.com/hardware/des...specifications
Da wäre ich etwas vorsichtig, was die stromschluckenden Karten im Abverkauf (wie die RX 580) angeht. Entweder du wartest auf die stromsparsameren Nachfolger, oder du bleibst einfach im Nvidia-Lager und greifst dir dort die energieeffizientste GeForce GTX 1650 raus. Sie hat etwa doppelt soviel Rohleistung wie deine alte Karte. Die RX580 hat zwar etwa 31% mehr Leistung als die GeForce GTX 1650, aber verbraucht auch etwa dreimal so viel Strom(64 Watt vs. 196 Watt). Die stromsparende Lösung scheint recht offensichlich, wenn du nicht auch noch das Netzteil wechseln willst. Erhältlich ist sie ab etwa 150 Euro.Graphics Card Power (W) 60 W
https://www.computerbase.de/2019-05/...gtx-1650-test/
https://geizhals.de/?cat=gra16_512&x...661+-+GTX+1650
Kann man imho pauschal nicht so sagen, weil das von der Qualität des Netzteils abhängt.
Der Rest des Systems wird sicher keine 200W ziehen, sondern eher Richtung 100W unter Vollast.
Sprich da ist NT-seitig (zumindest in der Theorie) Luft für eine 200W GPU...
Eine dedizierte GPU mit <8GB RAM würde ich heute nicht mehr als Neuware kaufen.
Ich höre das immer wieder und kann die Einstellung auch nachvollziehen. Frage mich nur: Gibt es da wirklich so viele Einschränkungen mit 1080p?
Alle Karten, die ich für anspruchsvolles 1440p gaming und mehr empfehlen würden, haben eh 8GB oder mehr.
Ich habe hier eine GTX 980 ti (6GB Ram), nutze die noch für 1440p gaming, halt was ich so spiele, und dabei keinerlei Einschränkungen, wobei es natürlich Situationen/Spiele gäbe, bei denen die Karte versagen würde.
Anderseits habe ich hier auch eine 2080 ti mit 11Gb Ram, die man in 4k gaming und Einstellungen auf über 11GB ram jagen kann.
Aber im Normalfall alles völlig ausreichend.
Interessant wird es vermutlich ab Weihnachten nächsten Jahres:
Wie viel Ram werden die Konsolen haben?
Geändert von Frozen (11. Oktober 2019 um 20:02 Uhr)
Freedom's just another word for nothing left to lose