Geforce gtx 690 test: Test: NVIDIA GeForce GTX 690

GeForce GTX 690 — Zwei GPUs ohne Kompromisse / Grafikkarten

Seit der Veröffentlichung der GeForce GTX 680 ist etwas mehr als ein Monat vergangen, und jetzt stellt NVIDIA eine Karte auf Basis der Kepler-Architektur mit zwei GK104-Prozessoren vor.

Eine ausführliche Rezension dieser Architektur können Sie im GTX 680-Artikel lesen. Kurz gesagt, Kepler ist ein Upgrade der Fermi-Architektur, die NVIDIA in der GeForce 400- und GeForce 500-Serie verwendet hat. Es gab eine Reihe von Optimierungen der Kern, aber die wichtigste Änderung ist eine Erhöhung der Anzahl der Recheneinheiten: GK104 verfügt über dreimal so viele CUDA-Kerne und doppelt so viele Texturmodule im Vergleich zum GF110-Chip (GeForce GTX 580). Andererseits ist die GeForce GTX 680 der GTX 580 in mancher Hinsicht unterlegen: Der Speicherbus ist von 384 auf 256 Bit „verengt“, die Anzahl der ROPs ist von 48 auf 32 gesunken und die Streaming-Multiprozessor-Scheduler haben umgestellt dynamische zu statische Planung, was die Leistung bei nicht-grafischen Berechnungen erheblich reduzierte.

GK104 wird gemäß der 28-nm-Prozesstechnologie hergestellt, und eine moderate (im Vergleich zum Tahiti-Kern der Radeon HD 7950/7970) Anzahl von Transistoren ermöglichte es uns, die Basistaktfrequenz der GPU auf 1006 MHz einzustellen. Der Speicher der GTX 680 läuft mit einer effektiven Taktrate von 6008 MHz. Darüber hinaus hat NVIDIA die dynamische Übertaktungstechnologie GPU Boost implementiert, die die GPU-Frequenz basierend auf Stromverbrauch und Temperatur automatisch erhöht. Zusätzlich zum Basistakt ist in den Spezifikationen der GTX 680 und 690 der Boost-Takt aufgeführt, der durchschnittliche Takt, den die automatische Übertaktung in den meisten Anwendungen erreicht.

⇡#

Spezifikationen

Die GeForce GTX 680 übertrifft ihren Hauptkonkurrenten, die Radeon HD 7970, in der Gesamtheit der Tests, obwohl der vollständige Triumph nicht stattfand. Aber genauso wichtig ist, dass die GTX 680 deutlich weniger Strom verbraucht und mit zwei sechspoligen Hilfsstromanschlüssen auskommt. Offensichtlich sollte die GK104 eine gute Dual-Prozessor-Grafikkarte sein. Die GTX 690 war einfacher herzustellen als die GTX 590, auch weil es einfacher ist, zwei 256-Bit-Speicherbusse samt Chips auf einer Platine zu trennen als zwei 384-Bit-Speicherbusse. Pünktlich zur GTX 590 in einem Computer nicht explodierte, musste NVIDIA bei den Spezifikationen einen erheblichen Kompromiss eingehen. Arbeiten GPU und Speicher bei der GTX 580 mit Frequenzen von 770 bzw. 4004 MHz, so werden bei der GTX 590 die Frequenzen auf 607 bzw. 3414 MHz reduziert. Darüber hinaus ist die GPU-Spannungsregelung bei der GTX 590 deaktiviert. Zwar haben einige Hersteller diese Einschränkungen überwunden, und als Ergebnis erschienen Monster wie ASUS MARS II mit einem Kühlsystem mit drei Steckplätzen.

Diesmal behauptet die Dual-Prozessor-Karte, ein vollständiger Ersatz für zwei GeForce GTX 680 zu sein. Ja, die Grundfrequenz der Chips wurde von 1006 auf 9 reduziert15 MHz, aber der Boost-Takt unterscheidet sich nicht so sehr: 1058 und 1019 – der Unterschied beträgt weniger als vier Prozent. Der Videospeicher arbeitet mit der gleichen Frequenz, 6008 MHz. Die

GTX 690 verbraucht viel weniger Strom als ein Paar GeForce GTX 680: 300 W gegenüber 195 W x 2. Die beiden achtpoligen Anschlüsse legen zusammen mit der PCI-E-Bus-Stromversorgung die Leistungsaufnahmegrenze auf 375 W fest.

Wie die GTX 680 arbeitet auch die GTX 690 mit dem PCI-E 3.0 Bus. Und außerdem kommt sie damit besser zurecht als die GTX 680. Letztere kann offiziell nur auf Systemen mit Ivy-Bridge-Prozessoren im PCI-E-3.0-Modus laufen, und die nervigste Ausnahme war die Sandy-Bridge-E-Plattform mit dem X79-Chipsatz. Ohne „Hacker“-Manipulationen an der Registry läuft die GTX 680 darauf nur im PCI-E 2.0-Modus. Es ist nicht bekannt, ob dieses Problem in Zukunft behoben wird, aber die GTX 690 unterstützt bereits PCI-E 3.0 auf Es kann gleichzeitig mit PCI-E 2. und 3. Version arbeiten. Unabhängig von der Plattform kommunizieren GPUs immer über PCI-E 3.0

miteinander. Die GTX 690 positioniert sich nicht nur in der Leistung, sondern auch im Preis als gleichwertig mit zwei GTX 680. Der empfohlene Verkaufspreis beträgt 9 $99 (GTX 680 499 $). Dies ist die teuerste Referenz-GeForce in der Geschichte. Der weltweite Verkauf der GTX 690 hat bereits begonnen, im russischen Einzelhandel ist sie jedoch noch nicht sichtbar. Was nicht verwunderlich ist: TSMC hat noch nicht mit der Produktion des GK104 in ausreichender Stückzahl begonnen und die überwiegende Mehrheit der Chips geht an die GTX 680. Darüber hinaus wird NVIDIA GTX 690-Karten nur über einige wenige Partner vertreiben. Und es ist logisch anzunehmen, dass Einzelhändler, wenn sie in Russland vordringen, die Preise weit über die empfohlenen tausend Dollar anheben werden.

⇡#

Design

Die vorherigen NVIDIA-Karten mit zwei Prozessoren unterschieden sich im Design kaum vom Rest der Linie. Diesmal wurde aus dem Flaggschiffmodell ein Computer-Luxusartikel gefertigt. Das Gehäuse des Kühlsystems besteht fast vollständig aus Metall. Der Rahmen des Kühlers besteht aus einer Magnesiumlegierung, die GPU-Kühlkörper sind mit verchromten Aluminiumplatten mit Plexiglasfenstern abgedeckt. Lediglich die schmalen Plättchen an den Längskanten der Karte bestehen aus Kunststoff. Die GTX 690 ist mit 11 Zoll einen Zoll länger als die GTX 680.

Das lasergeschnittene GeForce-Logo prangt am oberen Rand und sogar aus Soft-Touch-Kunststoff. Im Dunkeln leuchtet es grün. Es ist bekannt, dass NVIDIA seinen Partnern nicht erlaubt, Markenaufkleber auf das Gehäuse der GTX 690 zu kleben. Es dürfen nur Markierungen auf der Leiterplatte angebracht werden.

Das Design des gesamten Kühlsystems wiederholt das, was wir bei der GeForce GTX 590 gesehen haben: GPUs werden durch zwei separate Kühlkörper mit einer Kupferverdampfungskammer gekühlt. In der Mitte befindet sich ein großer Ventilator, der die Luft zu den Seiten verteilt. Dadurch gelangt ein Teil der „Abgase“ der Grafikkarte in das Computergehäuse. NVIDIA behauptet, dass das Material des Kühlerlaufrads und der Winkel der Blütenblätter so gewählt sind, dass die Geräuschentwicklung minimiert wird.

Die Speicherchips und Batterien des Boards werden durch einen massiven Aluminiumrahmen gekühlt. Anders als bei der GTX 590 passen bei der GTX 690 alle Anbauteile unter den Rahmen, es gibt keine Aussparungen für hohe Kondensatoren. Vom Lüfter bis zu den Enden der Platine verlaufen Lamellen, die den Luftstrom leiten. Auf der Rückseite der Platine befinden sich keine Platten.

Auch die Anschlüsse auf der Rückseite unterscheiden sich geringfügig von der GTX 590: Einer der DVI-Ausgänge befindet sich nicht mehr in der Mitte der Leiste und blockiert so den Luftstrom, sondern ist zur Seite verschoben.

⇡#

Board

Die GTX 690 ist auf einem 10-Lagen-Board aufgebaut. Alle Speicherchips passen auf die Frontfläche.

Wie die GeForce GTX 590 ist auch die GTX 690 mit Samsung-Speicherchips ausgestattet (GTX 680 — Hynix). Die Nennfrequenz ist die gleiche wie bei der GTX 680: 6 GHz, Kennzeichnung — K4G20325FD-FC03.

Das Stromversorgungssystem des Boards umfasst fünf Phasen für jede GPU. Die GTX 680 hat nur vier Phasen – ein weiterer unerwarteter Vorteil der GTX 690. Die GPU wird von zwei ON Semiconductor NCP4206-Controllern angetrieben, die wir bisher noch nicht gesehen haben. Dem Speicher jeder GPU ist eine Phase zugewiesen, die vom Anpec APL 3516C-Controller gesteuert wird. Alle Kondensatoren auf der GTX 69-Platine0 Festkörper (GTX 680 hat auch Standard-«Gläser» mit flüssigem Elektrolyt).

⇡#

Prüfmethode

Prüfstandskonfiguration
CPU Intel Core i7-3960X bei 4,6 GHz (100 x 46)
Hauptplatine ASUS P9X79 Pro
RAM DDR3 Kingston HyperX 4×2 GB bei 1600 MHz, 9-9-9
ROM Intel SSD 520 240 GB
Netzteil IKONIK Vulcan, 1200 W
CPU-Kühler Thermalright Silberpfeil
Gehäuse CoolerMaster Prüfstand V1. 0
Betriebssystem Windows 7 Ultimate X64 Service Pack 1
Software für AMD-Karten AMD Catalyst 12.4 + Catalyst-Anwendungsprofile 12.4 CAP 1
NVIDIA-Kartensoftware 301.11

AMD Catalyst Control Center-Einstellungen
Antialiasing Anwendungseinstellungen verwenden
Anisotrope Filterung Anwendungseinstellungen verwenden
Tesselierung Anwendungseinstellungen verwenden
Katalysator A.I., Texturfilterqualität Qualität, Oberflächenformatoptimierung aktivieren
Mipmap-Detailebene Qualität
Warten Sie auf V-Sync Aus, es sei denn, die Anwendung spezifiziert
Anti-Aliasing-Modus Multiproben-AA
Direct3D-Einstellungen, Geomery-Instancing aktivieren Auf
Dreifachpuffer Aus
NVIDIA-Systemsteuerungseinstellungen
Umgebungsokklusion Aus
Anisotrope Filterung Anwendungsgesteuert
Antialiasing – Gammakorrektur Auf
Antialiasing – Modus Anwendungsgesteuert
Antialiasing – Einstellungen Anwendungsgesteuert
Antialiasing – Transparenz Aus
CUDA-GPUs Alle
Maximale vorgerenderte Frames 3
Multi-Display/Mixed-GPU-Beschleunigung Leistungsmodus mit mehreren Anzeigen
Energieverwaltungsmodus Adaptiv
Texturfilterung – Anisotrope Probenoptimierung Aus
Texturfilterung – Negative LOD-Vorspannung Erlaube
Texturfilterung – Qualität Qualität
Texturfilterung – Trilineare Optimierung Auf
Gewindeoptimierung Auto
Dreifachpufferung Aus
Vertikale Synchronisierung Verwenden Sie die 3D-Anwendungseinstellungen

Programm API Einstellungen Testmodus Aktivieren 9 0059
3DMark 2011 DirectX 11 Profile Performance, Extreme
Unigine Heaven 2 DirectX 11 max. Qualität, DirectX 11, Tessellation im Extremmodus AF 16x, MSAA 4x 1920×1080 / 2560×1440
Crysis Warhead + Framebuffer Crysis Warhead Benchmarking-Tool DirectX 10 Frostdurchflug. Max. Einstellungen, DirectX 10 AF 16x, MSAA 4x 1920×1080 / 2560×1440
Metro 2033 + Metro 2033 Benchmark DirectX 11 max. Einstellungen, DirectX 11, DOF, Tessellation, NVIDIA PhysX aus AF 16x, MSAA 4x 1920×1080 / 2560×1440
DiRT 3 + Adrenaline Racing Benchmark Tool DirectX 11 Aspen, 8 Autos. Max. Qualität, DirectX 11 AF, AA 4x 1920×1080 / 2560×1440
Crysis 2 + Adrenaline Crysis 2 Benchmark-Tool DirectX 11 Central Park. Max. Qualität, DirectX 11, hochauflösende Texturen AF 16x, Post MSAA + Edge AA 1920×1080 / 2560×1440
Battlefield 3 + FRAPS DirectX 11 Beginn der Mission „Auf die Jagd gehen“. Max. Qualität AF 16x, MSAA 4x 1920×1080 / 2560×1440
Batman: Arkham City. Eingebauter Benchmark DirectX 11 max. Qualität AF, MSAA 4x 1920×1080 / 2560×1440
The Elder Scrolls 5: Skyrim + FRAPS DirectX9 Stadt Whiterun. Max. Qualität AF 16x, MSAA 4x 1920×1080 / 2560×1440
Call of Duty: Modern Warfare 3 + FRAPS DirectX9 Mission Rückkehr zum Absender. Max. Qualität AF, MSAA 4x 1920×1080 / 2560×1440

Folgende Konfigurationen wurden getestet:

  • NVIDIA GeForce GTX 690 (915/6008 MHz, 4 GB)
  • 2 x NVIDIA GeForce GTX 680 (1006/6008 MHz, 2 GB)
  • 2 x AMD Radeon HD 7970 (925/5500 MHz, 3 GB)
  • NVIDIA GeForce GTX 680 (1006/6008, 2 GB)
  • AMD Radeon HD 7970 (925/5500 MHz, 3 GB)
  • NVIDIA GeForce GTX 590 (607/3414 MHz, 3 GB)
  • AMD Radeon HD 6990 (880/5000 MHz, 4 GB)

⇡#

Übertaktung, Temperatur, Stromverbrauch

Mit dem Aufkommen der GPU-Boost-Technologie sieht das Übertakten von Grafikkarten auf Basis von NVIDIA-GPUs anders aus. GPU Boost selbst führt eine dynamische Übertaktung des Prozessors durch und erhöht die Frequenz und Versorgungsspannung, sofern eine Reserve für Stromverbrauch und Temperatur vorhanden ist. Bei der GeForce GTX 680 erhöht sich die Frequenz in 13-MHz-Schritten von 1006 auf 1110 MHz (neun Zustände einschließlich der Grundfrequenz) und die Spannung steigt von 1,062 auf 1,175 V. Die Grafikkarte arbeitet selbst im seltenen Fall mit der Grundfrequenz ressourcenintensivste Spiele. Ein Teil der Arbeit für den Übertakter ist also bereits im Vorfeld erledigt.

Es gibt zwei Möglichkeiten, mehr zu erreichen. Erstens können Sie das Leistungslimit der Karte (Power Target) auf bis zu 132 % erhöhen. In diesem Fall arbeitet GPU Boost aggressiver und sorgt für höhere Betriebsfrequenzen bei gleicher Last. Zweitens können Sie die Grundfrequenz der GPU erhöhen, und dann wird die gesamte Frequenztabelle, nach der der GPU-Boost arbeitet, um das gleiche Megahertz nach oben verschoben. Die Versorgungsspannung kann nicht manuell angepasst werden. Als wir die GTX 680 getestet haben, haben wir es auf die Übertaktungssoftware zurückgeführt, aber jetzt ist klar, dass NVIDIA lediglich das Spannungsmanagement blockiert hat. Entweder stellte sich heraus, dass es nicht mit GPU Boost kompatibel war, oder es war einfach außer Gefahr.

Experimente mit der Übertaktung der GTX 680 haben uns etwas enttäuscht. Die Grundfrequenz wurde lediglich von 1006 auf 1086 MHz erhöht. Gleichzeitig reichten die Leistungsreserven und die Kühlung der Karte bei voller Geschwindigkeit jedoch aus, damit GPU Boost dennoch alle neun Schritte der Tabelle nutzen konnte, wodurch die Betriebsfrequenz auf bis zu 1191 MHz erhöht wurde. Infolgedessen war der Leistungsgewinn durch Übertakten gering.

Bei der GeForce GTX 690 ist die Situation etwas anders. Im Vergleich zur GTX 680 gibt es nicht nur einen größeren Abstand zwischen Basistakt und Boost-Takt, sondern auch eine längere Frequenztabelle – 13 Schritte, einschließlich des ersten. Durch automatisches Übertakten kann die GPU-Frequenz nicht um 104, sondern um maximal 156 MHz von 9 erhöht werden15 bis 1071 MHz (die Spannung ist aber sowieso größer als 1,175 V). Dadurch erreicht die GTX 690 bereits im Normalbetrieb vergleichbare Frequenzen wie die GTX 680, kann bei hoher Leistungsaufnahme und hohen Temperaturen aber dennoch auf eine niedrigere Grundfrequenz zurückgreifen. Die Beobachtung der Taktfrequenz während der Benchmarks zeigte, dass die GTX 690 bei den meisten Aufgaben problemlos die Maximalfrequenzen von 1.071 MHz auf beiden GPUs erreicht. Bei besonders schwierigen Tests könnte einer der Prozessoren eine Stufe tiefer zurückgehen, bis hin zu 1058 MHz.

Die Grundfrequenz der GTX 690-Prozessoren wurde auf genau das gleiche Niveau wie die GTX 680, 1085 MHz, angehoben, wobei ein stabiler Betrieb erhalten blieb, was an sich schon eine großartige Leistung für eine „zweiköpfige“ Karte ist. Das Überraschendste ist jedoch, dass GPU Boost immer noch die obersten Stufen der Tabelle belegte und die Betriebsfrequenz beider GPUs zeitweise auf bis zu 1241 MHz erhöhte! Die übertaktete GTX 680 erreichte nur 1191 MHz.

Doch damit waren die Überraschungen noch nicht zu Ende. Wir haben es geschafft, den Speicher der GTX 680 auf 1732 (69) zu übertakten28) MHz, etwas weniger als die rekordverdächtige effektive Frequenz von 7 GHz. Aber die GTX 690 übertraf diesen Rekord bei weitem: 1902 (7608) MHz! Dies ist offenbar der Verdienst der Samsung-Chips.

Die GTX 690 hat im Vergleich zur GTX 680 ein paar kleinere Verbesserungen: die Möglichkeit, die Leistungsgrenze um 35 % statt 32 % zu erhöhen, und die Kühlergeschwindigkeit – nicht auf 85, sondern auf bis zu 95 %. Dadurch erwärmen sich die Prozessoren einer übertakteten Karte unter Last um 10 °C weniger als im Normalmodus. Das Lüftergeräusch ist laut, aber erträglich. Interessanter sind die Betriebstemperaturen der GTX 680 und GTX 690 sind praktisch gleich. Prozessor Radeon HD 7970 unter Last hat eine niedrigere Temperatur. Und beide Dual-Headed-Karten der vorherigen Generation, die GTX 590 und die Radeon HD 6990, laufen heißer.

Auch beim Stromverbrauch sieht die GTX 690 attraktiver aus als die beiden GTX 680: Die Spitzenleistung der Systeme unterscheidet sich um 15 Watt. Ein Paar Radeon HD 7970 ist sogar noch energiehungriger als die GTX 580 SLI, mit einem Unterschied von 104 W im Vergleich zur GTX 690! Auch beim Stromverbrauch liegen die GTX 590 und HD 6990 nahe bei zwei HD 7970. Bemerkenswert ist auch, dass im 2D-Modus die GTX 690 verbraucht nicht mehr Energie als die GTX 680.

Generell sind wir in Sachen Übertaktung und „Physik“ mit der GTX 690 zufrieden. Das Einzige, was vielleicht fehlt, ist die Funktion, die zweite GPU im Leerlauf zu deaktivieren, da AMD tut es. In diesem Fall könnte der Energieverbrauch noch weiter gesenkt werden.

GeForce GTX 690 vs. GeForce GTX 680 SLI

Das Wichtigste, was uns an der Leistung der GTX 690 interessiert, ist, wie sie im Vergleich zu einem Paar GTX 680 in einer SLI-Konfiguration abschneidet.

3DMark 2011

Den 3DMark-Ergebnissen zufolge besteht immer noch ein Unterschied zugunsten der beiden GTX 680.

Gaming-Tests + Unigine Heaven

Und in den meisten Gaming-Tests schneidet die GTX 690 fast so gut ab wie das SLI-System. Letzteres hat nur in DiRT 3 einen spürbaren Vorteil. Darüber hinaus erwies sich die GTX 690 in einem der Spiele – Call of Duty: MW3 – sogar als deutlich schneller.

Das Übertakten der GTX 690 hat einen viel größeren Effekt als bei der GTX 680. Ja, bei CoD: MW3 und Skyrim gibt es praktisch keine Steigerung der Bildrate, aber bei allen anderen Spielen ist die Leistungssteigerung oft nicht gerecht groß, aber kolossal. Die aggressive Arbeit von GPU Boost und die unglaubliche Speicherübertaktung zeigten sich in ihrer ganzen Pracht.

Ja, die Bildrate in Crysis 2 bleibt bei allen Karten bei 100 FPS hängen, da das Spiel ein solches Limit festlegt. In diesem Fall können wir nur sagen, dass beide Konfigurationen in Crysis 2 selbst bei 2560 x 1440 mindestens 100 FPS liefern.

GeForce GTX 690 vs. Radeon HD 7970 CrossFireX, synthetische Tests

Und nun vergleichen wir die GTX 690 mit ihrem Hauptkonkurrenten – einem Paar Radeon HD 7970 im CrossFireX-Modus sowie mit Einzelprozessorkarten. Mal sehen, wie gut SLI und CrossFireX in unseren Benchmarks abschneiden.

3DMark 2011

  • Die GTX 690 ist der HD 7970 CF in beiden Modi im Gesamtscore deutlich unterlegen, übertrifft sie aber im Graphics Score.
  • Das Übertakten der GTX 690 verschafft ihr einen enormen Vorteil beim Grafik-Score.
  • Abgesehen von den Problemen mit der Gesamtpunktzahl der GTX 690, die auf einen weiteren Fehler im 3DMark 2011 zurückzuführen sind, schneiden sowohl SLI als auch CF in diesem Test gut ab.

Unigine Heaven 2

  • Modus 1920×1080 Die GTX 690 ist deutlich schneller als die HD 7970 CF.
  • Bei 2560 x 1440 beträgt der Unterschied zwischen GTX 690 und HD 7970 CF nicht mehr mehr als ein paar FPS.
  • Die

  • SLI und CF steigern die Leistung gegenüber Einzelprozessorkarten mit gleichem Erfolg.

GeForce GTX 690 vs. Radeon HD 7970 CrossFireX-Gaming-Tests

Crysis Warhead (DirectX 10) beide Berechtigungen. Dieser Test erfordert viel Speicherbandbreite und den 384-Bit-Bus der Radeon HD 7970 erwies sich als ausschlaggebender Faktor.

  • GTX 690 rächt sich beim Übertakten.
  • Sowohl SLI- als auch CF-Karten bieten bis zu doppelt so viel Leistung wie Einzelprozessorkarten.
  • Metro 2033 (DirectX 11)

    • Die HD 7970 CF setzt sich gegen die GeForce GTX 690 durch.
    • Durch das Übertakten der GTX 690 können Sie nur die Punkte ausgleichen, Ihren Gegner jedoch nicht übertreffen.
    • Die Leistungssteigerung bei Verwendung von CrossFireX beträgt genau das Doppelte. Seltener Fall! SLI bietet aufgrund der GTX 69 keinen so großen Bonus0 und verloren.

    DiRT 3 (DirectX 11)

    • Die GTX 690 ist bei 2560 x 1440 deutlich schneller als das HD 7970-Paar, aber bei 1920 x 1080 ist der Unterschied unbedeutend.
    • CrossFireX ist etwas effizienter als SLI.

    Crysis 2 (DirectX 11)

    • Crysis 2 hat ein 100-FPS-Limit, daher können wir nur sagen, dass beide Kontrahenten es erreicht haben.
    • Aber wenn man sich die Ergebnisse der GTX 680 und Radeon HD 79 anschaut70 im 2560×1440-Modus, können Sie sehen, dass CrossFireX in diesem Test erfolgreicher abgeschnitten hat als SLI.

    Battlefield 3 (DirectX 11)

    • Es gibt keinen signifikanten Unterschied zwischen der GTX 690 und der HD 7970 CF bei 2560 x 1440, aber bei 1920 x 1080 ist die GTX 690 immer noch schneller.
    • Sowohl bei SLI als auch bei CrossFireX haben wir eine fast verdoppelte Leistungssteigerung im Vergleich zu Einzel-GPUs.

    Batman: Arkham City (DirectX 11)

    • Es ist bedauerlich, aber in diesem Spiel verbessert CrossFireX nicht nur nicht die Leistung, sondern senkt auch die FPS bei 1920 x 1080.
    • Die Skalierung mit SLI ist bei weitem nicht 100 %, aber die GeForce GTX 690 wird natürlich trotzdem zum Testsieger.

    The Elder Scrolls 5: Skyrim (DirectX 9)

    • GTX 690 ist schneller als ein Paar Radeon HD 7970.
    • Doch die Ergebnisse neuer Dual-Prozessor-Systeme, einschließlich der dazugekommenen GTX 690 unterscheiden sich kaum. Es sieht so aus, als ob die Engine von Skyrim diese Rechenleistung einfach nicht voll ausnutzen kann. Aufgrund der SLI-Technologie konnte die GTX 690 das Ergebnis bei einer Auflösung von 2560 x 1440 daher nur um fünf bis sechs FPS steigern.
    • Die

    • Radeon HD 7970 war anfangs deutlich langsamer als die GTX 680, daher war der Effekt von CrossFireX stärker.

    Call of Duty: Modern Warfare 3 (DirectX 9)

    • Die GTX 690 übertrifft die Radeon HD 7970 CF bei beiden Auflösungen deutlich.
    • Und die SLI-Technologie funktionierte hier effektiver als CrossFireX. Sogar die GTX 590 erreicht bei 1920 x 1080 die Ergebnisse der HD 7970 CF.

    Schlussfolgerungen

    NVIDIA hat wirklich eine Dual-Prozessor-Grafikkarte entwickelt, die zwei GeForce GTX 680 erfolgreich ersetzt. Wenn Sie eine SLI-Konfiguration erstellen müssen, gibt es absolut keinen Grund, separate Karten zu kaufen. Die GTX 690 liegt leistungsmäßig praktisch auf dem Niveau der beiden GTX 680 und verbraucht deutlich weniger Energie. Am überraschendsten sind jedoch die GTX 69-Prozessoren0 erwärmen sich auch nicht stärker als bei der GTX 680, obwohl sie genau das gleiche Übertaktungspotenzial haben. Darüber hinaus ist das Übertakten der GTX 690 effizienter, da GPU Boost eine höhere Frequenzobergrenze hat. Der Videospeicher wird vollständig auf eine effektive Frequenz weit über 7 GHz übertaktet. Was man von Dual-Prozessor-Karten nicht erwartet, ist die Überlegenheit gegenüber Single-Prozessor-Karten beim Übertakten. Darüber hinaus wurde es für sozusagen echte Enthusiasten möglich, zwei GTX 690 in einem Quad-SLI-System zu kombinieren.

    Ein Paar Radeon HD 7970 im CrossFireX-Modus ist ein ernsthafter Konkurrent der GeForce GTX 690, aber in den meisten Spielen, die wir als Benchmarks verwenden, sind entweder die beiden Konfigurationen gleich oder NVIDIA gewinnt. Die Radeon HD 7970 hat mehr Übertaktungspotenzial und kann sich im Wettbewerb mit der übertakteten GTX 690 revanchieren, allerdings ist der Stromverbrauch eines solchen Systems auch ohne Übertaktung sehr hoch: Der Radeon-Haufen ist deutlich gefräßiger als die GeForce GTX 690. Mal sehen, ob es AMD gelingt, eine ebenso perfekte Dual-Prozessor-Karte auf Basis von Tahiti-Chips zu entwickeln.

    Überprüfung und Test von NVIDIA GeForce GTX 690

    Inhalt

    • Einführung
    • Architektonische Merkmale, Spezifikationen
    • NVIDIA GeForce GTX 690
      • Verpackung und Inhalt, Nagelzieher
      • Aussehen und Abmessungen
      • Kühlsystem
      • Platine
    • Prüfstand
    • Instrumentierung und Testmethode
    • Beschleunigung
    • Temperatur und Geräuschpegel
    • Leistungstest
    • Testergebnisse
      • 3D Mark Vantage
      • 3DMark 2011
      • Unigine Heaven Benchmark
      • Metro 2033
      • The Witcher 2: Assassins of Kings
      • Battlefield III
      • Crysis 2
      • S. T.A.L.K.E.R.: Ruf von Pripyat
      • Verlorener Planet 2
      • Mafia II
      • Dragon Age 2
      • Hard-Reset
      • Batman: Arkham City
      • F1 2011
    • Fazit

    Einführung

    Vor einigen Jahren entwickelte ATI (bereits von AMD übernommen, behielt aber eine Zeit lang seinen Namen, der später in ATI/AMD umgewandelt und dann vollständig abgeschafft wurde) eine äußerst effektive Strategie, die es ihm ermöglichte, zurückzugewinnen von seinen ewigen Konkurrenten von NVIDIA einen großen Marktanteil.

    Die Taktik war einfach – den Kernel einfacher als den der Konkurrenz zu machen, aber mit guter Leistung, und ihre Produktlinie so schnell wie möglich auf den Markt zu bringen. Gleichzeitig sollte es den Gegner in den oberen Preissegmenten durch Erhöhung der Frequenzen (denken Sie an die „übertaktete“ Radeon HD 4890) und aggressive Preisgestaltung bekämpfen, und in der Spitzenklasse – indem es sich dem Flaggschiff der „Grünen“ entgegenstellte. Dual-Prozessor-Grafikkarte basierend auf einem Paar einfacher und „nicht heißer“ GPUs.

    Die Berechnung war gut und hat sich voll und ganz gerechtfertigt. Aber auch die NVIDIA-Spezialisten blieben nicht untätig. Radeon HD 3870×2 wurde prompt in Form von GeForce 9 beantwortet800GX2, der Konkurrent der Radeon HD 4870×2 war die GeForce GTX 295… In jedem Fall mussten die NVIDIA-Entwickler hart arbeiten, um einen Dual-Prozessor-Beschleuniger auf Basis gefräßiger GPUs zu entwickeln, die viel besser für den Betrieb in einer einzigen Version geeignet waren . Ein Paar GF100 (GeForce GTX 480/470) konnte nicht auf einem Board kombiniert werden.

    AMD-Designer hatten es viel einfacher. Denken Sie darüber nach – seit den Tagen der Radeon HD 2900 (das sind für die Computerindustrie vier Generationen – eine Ewigkeit) war ein AMD/ATI-Grafikprozessor der Spitzenklasse nicht mehr flächenmäßig größer, enthielt nicht mehr Transistoren, nicht mehr haben eine höhere Wärmeableitung als eine konkurrierende NVIDIA-Lösung. Natürlich lassen sich solche GPUs viel einfacher in eine Dual-Prozessor-Karte „einkleben“.

    Mehr über die Höhen und Tiefen des Kampfes zwischen den beiden Anbietern können Sie in „Eine kurze Geschichte der Entwicklung von Dual-GPU-Grafikkarten“ lesen. Warum das alles jetzt? Meiner Meinung nach wiederholt sich die Situation in einer „Spiegelversion“. Zum ersten Mal seit langer Zeit hat NVIDIA einen einfacheren (sprich: „mit weniger Transistoren enthaltenden“) Grafikprozessor als ein Mitbewerber herausgebracht.

    Interessanterweise „träumte“ die Designabteilung von NVIDIA laut der allgemein akzeptierten Version von einem weiteren „heißen Monster“ – GK100/110, aber etwas wuchs nicht zusammen und die Fristen wurden knapp, sodass beschlossen wurde, sich auf a zu konzentrieren gründliche Verfeinerung der Junior-GK104-GPU, die (das deutet der digitale Index deutlich an) ursprünglich für eine Mittelklasse-Karte konzipiert war. Das Endergebnis war sogar besser als erwartet.

    Die GeForce GTX 680 übertrifft dank fortschrittlicher Architektur und „geschärfter“ Treiber in den meisten Tests die formidable Radeon HD 7970 oder liegt zumindest auf Augenhöhe mit ihr. Gleichzeitig behält die Karte eine Reihe von Merkmalen bei, die nicht für ein Flaggschiff, sondern speziell für Beschleuniger der „Mittelklasse“ typisch sind: geringe Gesamtabmessungen, moderater Stromverbrauch und Wärmeableitung. Die relativ einfache GPU ermöglichte NVIDIA eine aggressive Preispolitik: Die GTX 680 wurde ursprünglich für 50 US-Dollar weniger als die Radeon HD 79 angekündigt70.

    Empfehlungen

    Jetzt müssen wir unseren Erfolg festigen. Ein Paar kleiner GPUs ist ideal, um ein „zweiköpfiges“ Flaggschiff zu schaffen. Es ist diese Karte – die neueste GeForce GTX 690 – die die Hauptfigur dieses Artikels ist. Es ist interessant zu sehen, ob es den NVIDIA-Designern gelungen ist, ein wirklich erfolgreiches Produkt der höchsten Preisklasse zu entwickeln … so dass sich ihre Kollegen von AMD jetzt den Kopf zerbrechen müssten, indem sie ein Paar gefräßiger Tahiti-GPUs auf einem Board kombinieren.

    Architekturmerkmale, Spezifikationen

    Zunächst gebe ich Ihnen eine Tabelle mit Merkmalen, die Daten zu allen Karten enthält, die am Test teilnehmen. Ausnahme ist die GeForce GTX 580, dieser Beschleuniger nahm nicht an den Tests teil, da er zur Vorgängergeneration gehört und den übrigen Teilnehmern leistungstechnisch deutlich unterlegen ist. Seine Eigenschaften sind jedoch für den Vergleich mit der GTX 590 notwendig, um das „Rezept“, nach dem NVIDIA seine Dual-Prozessor-Lösungen erstellt, klarer zu beschreiben.


    Name

    HD 7970

    GTX 580

    GTX 590

    GTX 680

    GTX 690
    GPU-Name

    Tahiti XT

    GF110

    GF110x2

    GK104

    GK104x2
    Prozesstechnik, nm

    28

    40

    40

    28

    28
    Kernfläche, mm 2

    365

    ~530

    ~530×2

    294

    294×2
    Anzahl der Transistoren, Mio.

    4300

    3300

    3300×2

    3540

    3540×2
    Kernfrequenz, MHz

    925

    772 / 1544

    608/1216

    1006
    *

    915*
    Anzahl Shader (PS), Stk.

    2048

    512

    512×2

    1536

    1536×2
    Anzahl Rasterisierungsblöcke (ROP), Stk.

    32

    48

    48×2

    32

    32×2
    Anzahl Textureinheiten (TMU), Stk.

    128

    64

    64×2

    128

    128×2
    Max. Füllgeschwindigkeit, Gpix/s

    29.6

    37.1

    58.4

    32

    58,6
    Max. Texturabrufrate, Gtex/s

    118,5

    49.4

    77,8

    128

    234.2
    Pixel-/Vertex-Shader-Version

    5,0 / 5,0

    5,0 / 5,0

    5,0 / 5,0

    5,0 / 5,0

    5,0 / 5,0
    Speichertyp

    GDDR5

    GDDR5

    GDDR5

    GDDR5

    GDDR5
    Effektive Speicherfrequenz, MHz

    5500

    4008

    3420

    6008

    6008
    Speicher, MB

    3072

    1536

    1536×2

    2048

    2048×2
    Speicherbusbreite, Bit

    384

    384

    384×2

    256

    256
    Speicherbandbreite GB/s

    264

    192,4

    164 x 2

    192

    192×2
    Stromverbrauch (2D/3D), W

    3/250

    nd / 244

    nd / 365

    nd / 195

    nd / 300
    Crossfire/Sli

    Ja

    Ja

    Ja
    **

    Ja

    Ja
    **
    Abmessungen (LxBxH), mm

    275x111x37

    270x111x38

    280x111x38

    260x111x38

    280x111x38
    UVP

    550

    499

    699

    500

    999

    * Basisfrequenz, ohne GPU Boost.
    ** Quad-SLI-Version nur mit zwei Dual-Prozessorkarten.

    Die neue Flaggschiff-Grafikkarte verwendet also ein Paar GPUs mit Kepler-Architektur, ihr Codename ist GK104.

    Diese GPU ist Übertaktern und allen Hardware-Enthusiasten bereits vom NVIDIA GeForce GTX 680-Beschleuniger bekannt. Dieser GK104 wurde ursprünglich als Mittelklasse-Prozessor entwickelt und erst später als Basis für eine „Flaggschiff“-Karte in Betracht gezogen) . Dank der fortschrittlichen 28-nm-Prozesstechnologie ist die Kernfläche jedoch viel kleiner – nur 294 mm 2 vs. 530 mm 2 (bis zu 80 % Differenz). Gleiches gilt für den Stromverbrauch und die Wärmeableitung der neuen GPU.

    Das ist wichtig, da NVIDIA einst hart arbeiten musste, um zwei sperrige und „gefräßige“ GF110 auf einem Board zu vereinen. Bei der vorherigen „hundertsten“ GPU, die im Design ähnlich war und der GeForce GTX 480 zugrunde lag, funktionierte dieser „Trick“ überhaupt nicht – weshalb die „400“-Serie keine Zwei-Prozessor-Karte hatte und AMD die obere dominierte Preissegment mit der Radeon HD 5970. Erst nach dem endgültigen Einbruch der 40-nm-Prozesstechnologie (analog zur CPU kann man dies als neues „Stepping“ bezeichnen) war es möglich, zwei 40-nm-GPUs auf einer Leiterplatte zu verbauen Einführung der dynamischen Frequenzsteuerungstechnologie, die die Erwärmung der Karte und die Belastung der Stromkreise unter besonders schwierigen Bedingungen begrenzt.

    Und doch gelang es der resultierenden Karte, der GTX 590, sich in Bezug auf Stromverbrauch und Wärmeableitung erst nach einer deutlichen Reduzierung der Frequenzen im Vergleich zur Einzelprozessor-GTX 580 in einen akzeptablen Rahmen einzufügen. Die GPU wurde also „verlangsamt“. Down“ von 772 auf 608 MHz (~27 %) bei gleichzeitiger Verringerung der Versorgungsspannung, Videospeicher – von 4008 auf 3420 MHz (~17 %). Anders sieht es bei der neuen Grafikkarte aus: Die Basis-Kernfrequenz wird im Vergleich zum Einzelprozessormodell nur um 10 % reduziert – von 1006 auf 915 MHz, der Speicher war davon überhaupt nicht betroffen und arbeitet in beiden Fällen mit einer Frequenz von 6000 MHz.

    Gleichzeitig ermöglichte das neue technische Verfahren den Einbau der Karte in ein Wärmepaket von 300 W, zum Vergleich: Die hinsichtlich der Frequenzen „abgespeckte“ GTX 590 hat eine TDP von 365 W (Differenz ~ 22 %). NVIDIA nennt in seiner Pressemitteilung auch einen „inoffiziellen“ Wert von 263 W – das ist nach Angaben des Unternehmens der tatsächliche Verbrauch des Beschleunigers unter „nicht extremer“ Last in den allermeisten Tests und Spielen. Nach diesen Daten ist die GTX 690 der Einzelprozessor-GTX 580, für die 244 Watt angegeben sind, leicht überlegen.

    In einem unter Rezensenten kursierenden Dokument wird immer wieder betont, dass die GTX 690 ein nahezu gleichwertiger Ersatz für ein Paar GTX 680 in SLI sei (diesem Thema ist ein eigener Abschnitt gewidmet). Mit Blick auf die Zukunft werde ich sagen, dass es alle Gründe für eine solche Behauptung gibt. Dieser Beschleuniger unterstützt, wie das jüngere Modell, die Technologie der „dynamischen“ Übertaktung GPU BOOST, beim Testen wurden beim deklarierten „Nominal“ von 915 MHz immer wieder Frequenzen von mehr als 1 GHz beobachtet. Darüber hinaus weisen NVIDIA-Experten darauf hin, dass das neue Produkt über ein gutes Übertaktungspotenzial verfügen sollte.

    Es ist wichtig, dass sich gleichzeitig das angegebene TDP-Niveau der GeForce GTX 690 und GTX 680 nicht um das Doppelte, sondern nur um eineinhalb unterscheidet (genauer gesagt um 53 %, 300 W vs. 195 W)

    Ansonsten ist die Pressemitteilung nicht allzu interessant. Es bietet mehrere „Werbe“-Diagramme, in denen die Leistung mit einer nichtproportionalen Skala verglichen wird …

    … eine Reihe kleinerer Informationen für Rezensenten und eine Beschreibung proprietärer Technologien, von denen die meisten unseren Lesern entweder schon seit langem bekannt sind (PhysX, 3D Surround) oder in einer aktuellen Rezension des „ Verwandte» GeForce GTX 680 (GPU Boost, Adaptive VSync, Anti-Aliasing-Modi FXAA, TXAA).

    Im selben Material erhalten Sie detaillierte Informationen zur Architektur der GF104-GPU und ihren Unterschieden zu früheren NVIDIA-GPUs.

    Also die Schlussfolgerungen des Abschnitts:

    • Die neue Grafikkarte basiert auf einem Paar GF104-Prozessoren der Kepler-Architektur und kann als „GTX 680×2“ bezeichnet werden. Diese Karten haben den gleichen Typ und die gleiche Konfiguration des Videokerns, die gleiche Speicherbusbreite, den gleichen Typ und die gleiche Menge an Videospeicher (für jede GPU).
    • Der Stromverbrauch/die Wärmeableitung der neuen Grafikkarte (im Vergleich zum vorherigen Dual-Prozessor-Modell des Unternehmens) wurde von 365 W auf 300 W reduziert.
    • Der Beschleuniger positioniert sich als gleichwertiger Ersatz für die GeForce GTX 680 SLI mit mehreren Vorteilen: Verwendung von nur einem PCIe-Steckplatz, geringerer Stromverbrauch, geringerer Geräuschpegel (höchstwahrscheinlich wurden diese Daten vom Hersteller beim Einbau von zwei GTX 680 ermittelt „Rücken an Rücken“, müssen aber auch berücksichtigt werden).

    Auf dem Papier sieht die GeForce GTX 690 äußerst interessant aus. Mit einer Leistung, die mit der GTX 680 SLI vergleichbar ist, dürfte diese Karte der leistungsstärkste einzelne Videobeschleuniger aller Zeiten sein. Und die Reduzierung der Wärmeableitung im Vergleich zur GTX 590 kann im Betrieb für einen durchaus akzeptablen Geräuschpegel sorgen. Zeit, nach draußen zu gehen.

    NVIDIA GeForce GTX 690

    Verpackung und Bundle, Nagelzieher

    Von einer „Verpackung und Bundle“ kann bei diesem Beschleuniger eigentlich keine Rede sein. NVIDIA gibt Grafikkarten nicht selbst zum freien Verkauf frei (obwohl es Berichte über Kleinserien unter dieser Marke für den amerikanischen Markt gab), wir haben also ein reines Testexemplar, das ausschließlich für die Presse und Fachleute bestimmt ist. Daher erhielt die Sektion einen so unkonventionellen Comic-Namen.

    Höchstwahrscheinlich ist vielen Lesern die lustige Aktion von NVIDIA bereits bekannt – die Nachricht darüber wurde vor ein paar Tagen auf Overclockers.ru veröffentlicht. Es ist jedoch noch einmal erwähnenswert.

    Der Punkt ist, dass der Beschleuniger den Rezensenten in einer dicken Holzkiste geliefert wird.

    Echt aus Holz: aus dicken Brettern, die mit Nägeln niedergeschlagen werden. Höchstwahrscheinlich wollte das Unternehmen mit dem militärischen Thema „spielen“ – es ist im Allgemeinen bei Hardwareherstellern beliebt. Dies wird durch die Inschrift auf dem Deckel belegt (es ist nicht einfach, sie ins Russische zu übersetzen – etwa „Achtung, Waffenstärke für Spiele“). Außerdem werden in solchen Kisten Waffen und Munition in der amerikanischen Armee transportiert (Bezahlung). Beachten Sie bitte die „Armee“-Codes auf der einen Seite).

    Aber die Situation wäre ziemlich trivial gewesen, wenn nicht NVIDIAs Brecheisen gewesen wäre, das mir zusammen mit der Box ausgehändigt wurde.

    Original NVIDIA Nagelzieher: Markenartikel, Stahl, über 1 kg:

    Um die humorvolle Wirkung zu verstärken, ist es mit der Aufschrift „Verwendung bei Angriff von Zombies oder . ..“ versehen.

    Der Witz war ein Erfolg. Nur die Faulen haben nicht über den „Nagelzieher gegen Zombies“ geschrieben. Auch die Leser von Overclockers.ru schätzten den Humor, es gab viele Witze in den Kommentaren zu den Nachrichten, angefangen bei Variationen zum Thema „Play in the Box“ bis hin zum großartigen „zweiseitigen“ Wortspiel „Nun, alles ist in Ordnung: das PEC und das Brennholz dafür.“

    Dieser Leser irrt sich jedoch leicht. Tatsächlich wurde „Pech“ in der Schachtel gefunden – „aufgerollt“ in einer dicken Schicht Schaumgummi …

    … aber die Diskette mit «Brennholz» — nein, die neue ForceWare 301.33 musste aus dem Internet heruntergeladen werden.

    Generell wird es interessant sein, ob AMD bei der Veröffentlichung seines Dual-Prozessor-Flaggschiffs auch mit so etwas reagiert.

    Aussehen und Abmessungen

    Aber zurück zu den ernsteren Dingen. Das Aussehen des Beschleunigers ist ungewöhnlich.

    In der offiziellen Pressemitteilung wird viel Wert auf „exotisches Industriedesign“ gelegt. Dabei geht der Hersteller mit der Extravaganz sogar etwas zu weit: „Das Gehäuse besteht aus Aluminium und ist durch dreiwertiges Chrom geschützt“ – also „verchromt“.

    „Der Rahmen des Lüfters besteht aus einer Magnesiumlegierung … Magnesiumlegierung wird beim Bau des Bugatti Veyron und des F-22-Jägers verwendet.“ Gott sei Dank verzichteten sie auf eine Carbon-Leiterplatte und ein Kevlar-Gehäuse.

    Dennoch sieht die Karte wirklich frisch und ungewöhnlich aus. Das wichtigste Designelement sind übrigens die mit Kunststoff „abgedeckten“ transparenten Fenster am Gehäuse (nach der Veröffentlichung der ersten Fotos der GTX 690 fragten sich viele, was das für „Öffnungen“ seien) und sind zudem sehr funktional . Durch sie ist es bequem, den Kühler zu inspizieren, um festzustellen, ob es an der Zeit ist, ihn von angesammeltem Staub zu reinigen.

    Einzelner Lüfter mit großen Flügeln, montiert in der Mitte des Boosters. Dank des „tauben“ Gehäuses bläst die Karte erwärmte Luft recht gut durch das Gitter auf der Rückseite. Von der Rückseite ist jedoch keine geringere Strömung zu beobachten. Leider ist dies das einzig mögliche Layout, um eine gleichmäßige Kühlung zweier GPUs zu gewährleisten. Allerdings glaube ich, dass es nur wenige gibt, die die GTX 69 nutzen wollen0 in einem engen, schlecht belüfteten Gehäuse. Ja, und „einseitiges“ Blasen ist viel besser als nichts; Die meisten „Nicht-Referenz“-Karten mit Lüfterflügeln funktionieren einwandfrei und blasen Luft herum.

    Die Abmessungen der GeForce GTX 690 finden Sie auf dem Foto:

    Hierbei handelt es sich um ein „Sandwich“ aus NVIDIAs neuem Flaggschiff und dem bisherigen Dual-Prozessor-Beschleuniger des Unternehmens, der GeForce GTX 590. Ihre Abmessungen sind identisch. Die Höhe der Grafikkarten ist Standard – 111 mm (entsprechend den Abmessungen des Rückwandrahmens), „Dicke“ – 38 mm (was einem „Zwei-Slot“-Layout entspricht), Länge – 280 mm. Es ist üblich, auf den letztgenannten Indikator zu achten, da ein zu langer Beschleuniger möglicherweise nicht mit einigen Gehäusemodellen kompatibel ist.

    Der GeForce GTX 690 geht das gut – die Karte ist nur 5 mm länger als die Standard-Radeon HD 7970 (275 mm), 10 mm länger als die GeForce GTX 580 (270 mm). Es sollte normalerweise in allen „Vollformat“-Gehäusen und den allermeisten „Medium-Towern“ (Midi-Tower) verbaut werden.

    Vier Videoausgangsanschlüsse sind an der Rückseite des Beschleunigers angelötet. Angesichts der aktuellen Mode für Multi-Screen-Systeme ist dies sinnvoll.

    Bitte beachten Sie, dass NVIDIA die üblichen DVI-Anschlüsse bevorzugt – es gibt gleich drei davon, und AMD versucht, mehr DisplayPort (GTX 69) zu verwenden0 nur einen solchen Videoausgang), obwohl die entsprechenden Monitormodelle teuer und relativ selten sind.

    Zur Stromversorgung der Grafikkarte stehen zwei 8-polige Anschlüsse zur Verfügung. Ich möchte Sie daran erinnern, dass die gleiche Konfiguration auf der GeForce GTX 590 verwendet wurde.

    Auch die Lage der Anschlüsse bei der GeForce GTX 690 und GTX 590 ist dieselbe: Sie sind „am Ende“ der Karte platziert und im Verhältnis zur Platine des Motherboards nach oben gerichtet. Anders als bei der GTX 680 sind bei diesem Beschleuniger die Anschlüsse klassisch und nicht „auf zwei Etagen“ angeordnet.

    In einem System mit einer GeForce GTX 690-Grafikkarte empfiehlt NVIDIA die Verwendung eines Netzteils mit mindestens 650 W Ausgangsleistung. Für einen leistungsstarken Gaming-PC ist das ein durchaus angemessener Wert.

    Die GeForce GTX 690 hinterlässt äußerlich einen guten Eindruck. Unabhängig davon können wir das ungewöhnliche Design und nicht die längste Länge des Beschleunigers erwähnen, vergleichbar mit High-End-Einzelprozessormodellen. Finden Sie die Karte übrigens nicht überraschend ähnlich zur GeForce GTX 590? Wenn eines der Partnerunternehmen von NVIDIA plötzlich einen Beschleuniger herausbringt, dessen Gehäuse mit Aufklebern bedeckt ist, werden sich diese Modelle als „Zwillinge“ herausstellen, die bei oberflächlicher Betrachtung kaum zu unterscheiden sind. Im weiteren Studium der GTX 690 zeigte sich, dass es gestalterisch viele Gemeinsamkeiten mit dem Vorgängermodell aufweist. Nehmen wir zum Beispiel das Kühlsystem.

    Kühlsystem

    NVIDIA-Designer haben das Problem der Reinigung des Kühlkörpers von Staub sorgfältig ausgearbeitet. Normalerweise wird ihm nicht die gebührende Aufmerksamkeit geschenkt, aber vergebens – mehr als einmal musste ich Tisch-Grafikkarten „auf Null“ zerlegen, um an den Kühler zu gelangen. Hier ist alles viel einfacher.

    Wie bereits erwähnt, ist die Inspektion des Kühlers bequem durch spezielle Fenster im Gehäuse möglich. Das Gehäuse selbst wird mit Hilfe von Schrauben am Metallrahmen befestigt. Ja, es gibt ziemlich viele davon (acht, natürlich, um die Karte „monolithischer“ zu machen), aber das Zerlegen dauert nur ein paar Minuten.

    Das Gehäuse selbst ist ein unauffälliges Aluminiumstück. Nach dem Entfernen sieht die Karte so aus:

    Kühlerlamellen haben an den Enden keine „Biegungen“ (sie werden benötigt, damit die Luft vom Lüfter am Kühler „entlang“ strömt, ohne dass sie abgeführt wird, hier spielt die Haube selbst diese Rolle), daher reicht es, eine Bürste zu nehmen und gehe von oben über sie hinweg. Das ist bequem.

    Das Design des Kühlsystems ähnelt stark dem der GeForce GTX 590. Vergleichen Sie.

    GeForce GTX 690:

    GeForce GTX 590:

    Es gibt eine Ähnlichkeit sowohl im allgemeinen Layout (Lüfter in der Mitte, zwei separate Kühlkörper für GPUs) als auch in den spezifischen Designlösungen.

    Das Design basiert also weiterhin auf einem leistungsstarken Metallrahmen, an dem sowohl Radiatoren als auch ein Lüfter befestigt sind. Sie ist außerdem für die Ableitung der Wärme von Netzschaltern und Videospeicherchips verantwortlich.

    Der Kontakt erfolgt über Wärmeleitpads (die meisten davon blieben auf der Leiterplatte, ich habe mich entschieden, sie nicht „gewaltsam“ zu entfernen, um den Zusammenbau der Karte nicht zu erschweren).

    In diesem Fall kündigt NVIDIA die Verwendung eines speziellen Designs von „Kanälen“ am Rahmen an (sie befinden sich direkt unter dem Lüfterrad und fallen unter den direkten Luftstrom). Diese „Kanäle“ leiten den Luftstrom effektiv in Richtung der Heizkörper und leiten darüber hinaus die Wärme viel besser ab als die bisher verwendeten kleinen Stifte und Vorsprünge. Hervorragende Detailarbeit. Ich kann auch feststellen, dass es zugenommen hat (im Vergleich zur gleichen GTX 59).0) die Kontaktfläche des Rahmens mit den Haupt-CO-Kühlkörpern, was sich positiv auf das Temperaturregime des VRM und der Speicherchips auswirken sollte.

    Die Strahler selbst bestehen nach wie vor aus Aluminiumlamellen, die auf flache Verdampferkammern aufgelötet sind. Die Fläche der Kühler hat sich leicht vergrößert (dies ist auch optisch leicht zu erkennen, der Innenraum des Gehäuses wird nun effizienter genutzt), in Kombination mit den beschriebenen aerodynamischen Verbesserungen dürfte dies eine gute Wirkung erzielen. Der Durchmesser des Lüfterrads beträgt immer noch 80 mm. Die Anzahl der Klingen (neun) sowie deren Profil haben sich nicht geändert.

    Im Allgemeinen haben wir ein bekanntes CO-Design, das auf zwei Verdampfungskammern basiert und einige „kosmetische“ Verbesserungen erfahren hat.