Android

Nvidia 【alle Informationen】

Inhaltsverzeichnis:

Anonim

Die Nvidia Corporation, besser bekannt als Nvidia, ist ein amerikanisches Technologieunternehmen mit Sitz in Delaware und Sitz in Santa Clara, Kalifornien. Nvidia entwirft Grafikprozessoren für den Videospiel- und den professionellen Markt sowie ein SoC-System (Chip Unit) für den Automobil- und Mobile-Computing-Markt. Die Kernproduktlinie GeForce steht in direktem Wettbewerb mit den Radeon-Produkten von AMD.

Wir empfehlen, unsere besten Anleitungen zu PC-Hardware und -Komponenten zu lesen:

Neben der Herstellung von GPUs bietet Nvidia Forschern und Wissenschaftlern weltweit Parallelverarbeitungsfunktionen, mit denen sie Hochleistungsanwendungen effizient ausführen können. In jüngerer Zeit ist das Unternehmen in den Mobile-Computing-Markt eingetreten und produziert dort mobile Tegra-Prozessoren für Videospielkonsolen, Tablets sowie autonome Navigations- und Fahrzeugunterhaltungssysteme. Dies hat dazu geführt, dass Nvidia seit 2014 zu einem Unternehmen geworden ist, das sich auf vier Märkte konzentriert: Spiele, professionelle Visualisierung, Rechenzentren sowie künstliche Intelligenz und Automobile.

Inhaltsverzeichnis

Nvidia Geschichte

Nvidia wurde 1993 von Jen-Hsun Huang, Chris Malachowsky und Curtis Priem gegründet. Die drei Mitbegründer des Unternehmens stellten die Hypothese auf, dass die richtige Richtung für das Rechnen durch grafikbeschleunigte Verarbeitung gehen würde, und glaubten, dass dieses Computermodell Probleme lösen könnte, die das Allzweck-Computing nicht lösen könnte. Sie stellten auch fest, dass Videospiele zu den rechnerisch anspruchsvollsten Problemen gehören und dass sie ein unglaublich hohes Verkaufsvolumen aufweisen.

Von einer kleinen Videospielfirma zu einem Riesen mit künstlicher Intelligenz

Das Unternehmen wurde mit einem Anfangskapital von 40.000 US-Dollar geboren, hatte ursprünglich keinen Namen und die Mitbegründer nannten alle NV-Dateien wie in der "nächsten Version". Die Notwendigkeit, das Unternehmen zu gründen, veranlasste die Mitbegründer, alle Wörter mit diesen beiden Buchstaben zu überprüfen, was sie zu "invidia" führte, dem lateinischen Wort, das "Neid" bedeutet.

Die Einführung von RIVA TNT im Jahr 1998 festigte den Ruf von Nvidia für die Entwicklung von Grafikadaptern. Ende 1999 veröffentlichte Nvidia die GeForce 256 (NV10), mit der vor allem Transformation und Beleuchtung (T & L) auf Verbraucherebene in 3D-Hardware eingeführt wurden. Mit 120 MHz und vier Pixelzeilen wurden erweiterte Videobeschleunigung, Bewegungskompensation und Hardware-Teilbildmischung implementiert. GeForce übertraf bestehende Produkte bei weitem.

Aufgrund des Erfolgs seiner Produkte erhielt Nvidia den Auftrag zur Entwicklung der Grafikhardware für die Xbox-Spielekonsole von Microsoft, wodurch Nvidia einen Vorschuss von 200 Millionen US-Dollar erhielt. Das Projekt nahm jedoch viele seiner besten Ingenieure aus anderen Projekten. Kurzfristig spielte dies keine Rolle, und die GeForce2 GTS wurde im Sommer 2000 ausgeliefert. Im Dezember 2000 einigte sich Nvidia darauf, das geistige Vermögen seines einzigen Rivalen 3dfx, eines Pioniers in der 3D-Grafiktechnologie für den Verbraucher, zu erwerben. der das Feld von Mitte der 1990er bis 2000 leitete. Der Akquisitionsprozess endete im April 2002.

Im Juli 2002 erwarb Nvidia Exluna für einen nicht genannten Geldbetrag. Exluna war für die Erstellung verschiedener Software-Rendering-Tools verantwortlich. Später, im August 2003, erwarb Nvidia MediaQ für ungefähr 70 Millionen US-Dollar. Darüber hinaus wurde am 22. April 2004 iReady übernommen, ein Anbieter von Hochleistungs-TCP / IP- und iSCSI-Offload-Lösungen.

Der Erfolg von Nvidia auf dem Videospielmarkt war so groß, dass im Dezember 2004 bekannt gegeben wurde, dass es Sony beim Design des RSX-Grafikprozessors der PlayStation 3 helfen wird, der Videospielkonsole der neuen Generation der japanischen Firma es hatte die schwierige Aufgabe, den Erfolg seines Vorgängers, des Bestsellers der Geschichte, zu wiederholen.

Im Dezember 2006 erhielt Nvidia Zitate vom US-Justizministerium. In Bezug auf mögliche Kartellverstöße in der Grafikkartenbranche. Zu dieser Zeit war AMD nach dem Kauf von ATI durch diesen zu seinem großen Rivalen geworden. Seitdem sind AMD und Nvidia die einzigen Hersteller von Grafikkarten für Videospiele, nicht zu vergessen die integrierten Chips von Intel.

Forbes ernannte Nvidia zum besten Unternehmen des Jahres 2007 und verwies auf die Erfolge, die es in den letzten fünf Jahren erzielt hat. Am 5. Januar 2007 gab Nvidia bekannt, dass die Übernahme von PortalPlayer, Inc. abgeschlossen wurde. Im Februar 2008 erwarb Nvidia Ageia, Entwickler der PhysX-Physik-Engine und der Physik- Verarbeitungseinheit, auf der diese Engine ausgeführt wird. Nvidia gab bekannt, dass die Integration der PhysX-Technologie in seine zukünftigen GeForce GPU-Produkte geplant ist.

Nvidia hatte im Juli 2008 große Schwierigkeiten, als es einen Umsatzrückgang von rund 200 Millionen US-Dollar verzeichnete, nachdem berichtet wurde, dass bestimmte vom Unternehmen hergestellte mobile Chipsätze und mobile GPUs aufgrund von Herstellungsfehlern abnormale Ausfallraten aufwiesen. Im September 2008 wurde Nvidia Gegenstand einer Sammelklage der Betroffenen, in der behauptet wurde, die defekten GPUs seien in bestimmte Notebook-Modelle von Apple, Dell und HP integriert worden. Die Seifenoper endete im September 2010, als Nvidia eine Vereinbarung traf, dass den Besitzern der betroffenen Laptops die Kosten für Reparaturen oder in einigen Fällen für den Austausch von Produkten erstattet werden.

Im November 2011 veröffentlichte Nvidia sein ARG Tegra 3-Chipsystem für mobile Geräte, nachdem es erstmals auf dem Mobile World Congress vorgestellt worden war. Nvidia behauptete, dass der Chip die erste mobile Quad-Core-CPU enthielt. Im Januar 2013 stellte Nvidia das Tegra 4 sowie das Nvidia Shield vor, eine tragbare Spielekonsole auf Android-Basis, die mit dem neuen Prozessor betrieben wird.

Am 6. Mai 2016 stellte Nvidia die GeForce GTX 1080- und 1070-Grafikkarten vor, die erstmals auf der neuen Pascal-Mikroarchitektur basieren. Nvidia behauptete, dass beide Modelle ihr Maxwell X-basiertes Titan X-Modell übertrafen. Diese Karten enthalten GDDR5X- bzw. GDDR5-Speicher und verwenden einen 16-nm-Herstellungsprozess. Die Pascal-Architektur unterstützt auch eine neue Hardwarefunktion, die als simultane Mehrfachprojektion (SMP) bezeichnet wird und die Qualität des Multi-Monitor- und Virtual-Reality- Renderings verbessern soll. Pascal hat die Herstellung von Laptops ermöglicht, die dem Max-Q-Designstandard von Nvidia entsprechen.

Im Mai 2017 gab Nvidia eine Partnerschaft mit Toyota Motor Corp bekannt, bei der dieser die künstliche Intelligenzplattform der Drive X-Serie von Nvidia für seine autonomen Fahrzeuge nutzen wird. Im Juli 2017 gaben Nvidia und der chinesische Suchgigant Baidu, Inc. eine leistungsstarke KI-Partnerschaft bekannt, die Cloud Computing, autonomes Fahren, Consumer-Geräte und das KI-Framework von PaddPaddle von Baidu umfasst.

Nvidia GeForce und Nvidia Pascal dominieren das Spielen

GeForce ist der Markenname für Grafikkarten, die auf Grafikprozessoren (GPUs) basieren, die von Nvidia ab 1999 entwickelt wurden. Bis heute kennt die GeForce-Serie seit ihrer Einführung 16 Generationen. Die Versionen, die sich an professionelle Benutzer dieser Karten richten, werden unter dem Namen Quadro geführt und enthalten einige Unterscheidungsmerkmale auf Treiberebene. Die direkte Konkurrenz von GeForce ist AMD mit seinen Radeon-Karten.

Pascal ist der Codename für die neueste GPU-Mikroarchitektur, die von Nvidia entwickelt wurde und als Nachfolger der vorherigen Maxwell-Architektur in den Videospielemarkt eingetreten ist. Die Pascal-Architektur wurde erstmals im April 2016 mit der Einführung des Tesla P100 für Server am 5. April 2016 eingeführt. Derzeit wird Pascal hauptsächlich in der GeForce 10-Serie verwendet, wobei die GeForce GTX 1080 und GTX verwendet werden Die ersten 1070 Videospielkarten wurden mit dieser Architektur am 17. Mai 2016 bzw. am 10. Juni 2016 veröffentlicht. Pascal wird nach dem 16-nm-FinFET-Verfahren von TSMC hergestellt, wodurch es im Vergleich zu Maxwell, das mit 28-nm-FinFET hergestellt wurde, eine weitaus bessere Energieeffizienz und Leistung bietet.

Die Pascal-Architektur ist intern in sogenannten Streaming Multiprocessor ( SM) organisiert, Funktionseinheiten, die aus 64 CUDA-Kernen bestehen, die wiederum in zwei Verarbeitungsblöcke mit jeweils 32 CUDA-Kernen unterteilt sind von ihnen und begleitet von einem Befehlspuffer, einem Warp-Planer, 2 Textur-Mapping-Einheiten und 2 Versandeinheiten. Diese SM-Laufwerke entsprechen den CUs von AMD.

Die Pascal-Architektur von Nvidia wurde als die effizienteste und fortschrittlichste in der Spielewelt konzipiert. Das Engineering-Team von Nvidia hat große Anstrengungen unternommen, um eine GPU-Architektur zu erstellen, die sehr hohe Taktraten bei gleichzeitig geringem Stromverbrauch ermöglicht. Um dies zu erreichen, wurde in allen Schaltkreisen ein sehr sorgfältiges und optimiertes Design gewählt, was dazu führte, dass Pascal eine Frequenz erreichen konnte, die 40% höher als die von Maxwell war, eine Zahl, die viel höher war, als es der Prozess bei 16 erlaubt hätte nm ohne alle Optimierungen auf Designebene.

Speicher ist ein Schlüsselelement für die Leistung einer Grafikkarte. Die GDDR5-Technologie wurde 2009 angekündigt und ist daher für die leistungsstärksten Grafikkarten von heute bereits veraltet. Aus diesem Grund unterstützt Pascal den GDDR5X-Speicher, der zum Zeitpunkt der Einführung dieser Grafikkarten der schnellste und fortschrittlichste Standard für Speicherschnittstellen in der Geschichte war und Übertragungsgeschwindigkeiten von bis zu 10 Gbit / s oder fast 100 Pikosekunden zwischen den Bits erreichte. von Daten. Durch den GDDR5X-Speicher kann die Grafikkarte im Vergleich zu GDDR5 weniger Strom verbrauchen, da die Betriebsspannung 1, 35 V beträgt, verglichen mit 1, 5 V oder sogar mehr, die die schnelleren GDDR5-Chips benötigen. Diese Spannungsreduzierung führt zu einer um 43% höheren Betriebsfrequenz bei gleichem Stromverbrauch.

Eine weitere wichtige Innovation von Pascal sind Speicherkomprimierungstechniken ohne Leistungseinbußen, die den Bandbreitenbedarf der GPU verringern. Pascal umfasst die vierte Generation der Delta-Farbkomprimierungstechnologie. Bei der Delta-Farbkomprimierung analysiert die GPU Szenen, um die Pixel zu berechnen, deren Informationen komprimiert werden können, ohne die Qualität der Szene zu beeinträchtigen. Während die Maxwell-Architektur im Project Cars-Spiel keine Daten komprimieren konnte, die sich auf bestimmte Elemente wie Vegetation und Teile des Autos beziehen, kann Pascal die meisten Informationen zu diesen Elementen komprimieren und ist damit wesentlich effizienter als Maxwell. Infolgedessen kann Pascal die Anzahl der Bytes, die aus dem Speicher extrahiert werden müssen, erheblich reduzieren. Diese Reduzierung der Bytes führt zu zusätzlichen 20% der effektiven Bandbreite, was zu einer Erhöhung des 1, 7-fachen der Bandbreite bei Verwendung von GDDR5X-Speicher im Vergleich zur GDDR5- und Maxwell-Architektur führt.

Pascal bietet auch wichtige Verbesserungen in Bezug auf Asynchronous Computing, was sehr wichtig ist, da die Workloads derzeit sehr komplex sind. Dank dieser Verbesserungen kann die Pascal- Architektur die Last effizienter auf alle SM-Einheiten verteilen, sodass kaum unbenutzte CUDA-Kerne vorhanden sind. Dadurch kann die Optimierung der GPU erheblich verbessert werden, wobei alle vorhandenen Ressourcen besser genutzt werden.

In der folgenden Tabelle sind die wichtigsten Funktionen aller Pascal-basierten GeForce-Karten zusammengefasst.

NVIDIA GEFORCE PASCAL GRAPHICS CARDS

CUDA-Kerne Frequenzen (MHz) Speicher Speicherschnittstelle Speicherbandbreite (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 Bit 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 Bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 Bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 Bit 192 120
NVIDIA GeForce GTX1060 6 GB 1280 1506/1708 6 GB GDDR5 192 Bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB GDDR5 256 Bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256 Bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 Bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 Bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 Bit 547 250

Künstliche Intelligenz und Volta-Architektur

Die GPUs von Nvidia werden häufig in den Bereichen Deep Learning, künstliche Intelligenz und beschleunigte Analyse großer Datenmengen eingesetzt. Das Unternehmen entwickelte Deep Learning auf Basis der GPU-Technologie, um mithilfe künstlicher Intelligenz Probleme wie Krebserkennung, Wettervorhersage und autonom fahrende Fahrzeuge wie den berühmten Tesla anzugehen.

Das Ziel von Nvidia ist es, Netzwerken dabei zu helfen, „denken “ zu lernen. Die GPUs von Nvidia eignen sich hervorragend für Deep-Learning-Aufgaben, da sie für paralleles Computing ausgelegt sind und sich gut für die Vektor- und Matrixoperationen eignen, die beim Deep-Learning vorherrschen. Die GPUs des Unternehmens werden von Forschern, Labors, Technologieunternehmen und Unternehmen verwendet. Im Jahr 2009 nahm Nvidia am sogenannten Urknall für Deep Learning teil, da Deep Learning-Neuronale Netze mit den Grafikprozessoren des Unternehmens kombiniert wurden. Im selben Jahr verwendete Google Brain die GPUs von Nvidia, um tiefe neuronale Netze zu erstellen, die maschinelles Lernen ermöglichen. Andrew Ng stellte fest, dass sie die Geschwindigkeit von Deep-Learning-Systemen um das 100-fache erhöhen können.

Im April 2016 stellte Nvidia den 8-GPU-Cluster-basierten DGX-1-Supercomputer vor, um die Fähigkeit der Benutzer zu verbessern, Deep Learning zu nutzen, indem GPUs mit speziell entwickelter Software kombiniert werden. Nvidia entwickelte auch die GPU-basierten virtuellen Maschinen Nvidia Tesla K80 und P100, die über die Google Cloud verfügbar sind, die Google im November 2016 installiert hat. Microsoft fügte in einer Vorschau seiner N-Serie Server hinzu, die auf der GPU-Technologie von Nvidia basieren. basierend auf der Tesla K80 Karte. Nvidia hat sich auch mit IBM zusammengetan, um ein Software-Kit zu entwickeln, das die KI-Fähigkeiten seiner GPUs erhöht. 2017 wurden die GPUs von Nvidia auch im RIKEN Center für das Advanced Intelligence Project für Fujitsu online gestellt.

Im Mai 2018 erkannten Forscher der Abteilung für künstliche Intelligenz von Nvidi a die Möglichkeit, dass ein Roboter lernen könnte, einen Job zu erledigen, indem er einfach die Person beobachtet, die denselben Job ausführt . Um dies zu erreichen, haben sie ein System geschaffen, mit dem nach einer kurzen Überprüfung und einem Test nun Universalroboter der nächsten Generation gesteuert werden können.

Volta ist der Codename für die fortschrittlichste GPU-Mikroarchitektur, die von Nvidia entwickelt wurde. Es handelt sich um Pascals Nachfolgerarchitektur und wurde im März 2013 im Rahmen einer zukünftigen Roadmap angekündigt. Die Architektur ist nach Alessandro Volta benannt, der Physiker, Chemiker und Erfinder der elektrischen Batterie. Die Volta- Architektur hat den Gaming-Sektor nicht erreicht, obwohl dies mit der Nvidia Titan V-Grafikkarte geschehen ist, die sich auf den Consumer-Sektor konzentriert und auch in Gaming-Geräten verwendet werden kann.

Diese Nvidia Titan V ist eine GV100-Core-basierte Grafikkarte und drei HBM2-Speicherstapel in einem Paket. Die Karte verfügt über insgesamt 12 GB HBM2-Speicher, der über eine 3072-Bit-Speicherschnittstelle funktioniert. Die GPU enthält über 21 Millionen Transistoren, 5.120 CUDA-Kerne und 640 Tensorkerne, um 110 TeraFLOPS-Leistung beim Deep Learning zu erzielen. Die Betriebsfrequenzen betragen 1200 MHz Basis und 1455 MHz im Turbomodus, während der Speicher mit 850 MHz arbeitet und eine Bandbreite von 652, 8 GB / s bietet. Kürzlich wurde eine CEO Edition-Version angekündigt, die den Speicher auf bis zu 32 GB erhöht.

Die erste von Nvidia mit der Volta-Architektur hergestellte Grafikkarte war die Tesla V100, die Teil des Nvidia DGX-1-Systems ist. Der Tesla V100 nutzt den GV100-Kern, der am 21. Juni 2017 veröffentlicht wurde. Die Volta GV100-GPU basiert auf einem 12-nm- FinFET- Herstellungsprozess mit 32 GB HBM2-Speicher, der eine Bandbreite von bis zu 900 GB / s liefern kann.

Volta erweckt auch den neuesten Nvidia Tegra SoC namens Xavier zum Leben , der am 28. September 2016 angekündigt wurde. Xavier Enthält 7 Milliarden Transistoren und 8 benutzerdefinierte ARMv8-Kerne sowie eine Volta-GPU mit 512 CUDA-Kernen und einer TPU von Open Source (Tensor Processing Unit) namens DLA (Deep Learning Accelerator). Xavier kann Videos mit einer Auflösung von 8K Ultra HD (7680 × 4320 Pixel) in Echtzeit codieren und decodieren, alle mit einer TDP von 20 bis 30 Watt und einer Chipgröße, die dank des 12-Herstellungsprozesses auf etwa 300 mm2 geschätzt wird. nm FinFET.

Die Volta- Architektur zeichnet sich dadurch aus, dass sie als erste den Tensor Core enthält, Kerne, die speziell entwickelt wurden, um im Vergleich zu normalen CUDA-Kernen eine überlegene Leistung bei Deep-Learning-Aufgaben zu bieten. Ein Tensorkern ist eine Einheit, die zwei FP16 4 × 4-Matrizen multipliziert und dann eine dritte FP16- oder FP32-Matrix zum Ergebnis hinzufügt. Dabei werden zusammengeführte Additions- und Multiplikationsoperationen verwendet, um ein FP32-Ergebnis zu erhalten, das optional auf ein FP16-Ergebnis herabgestuft werden kann. Tensorkerne sollen das Training neuronaler Netze beschleunigen.

Volta zeichnet sich auch durch die fortschrittliche proprietäre NVLink-Schnittstelle aus, bei der es sich um ein kabelbasiertes Kommunikationsprotokoll für die Halbleiterkommunikation mit kurzer Reichweite handelt, das von Nvidia entwickelt wurde und für die Datencodeübertragung und -steuerung in Prozessorsystemen verwendet werden kann CPU und GPU sowie solche, die ausschließlich auf GPU basieren. NVLink gibt in der ersten und zweiten Version eine Punkt-zu-Punkt-Verbindung mit Datenraten von 20 und 25 Gbit / s pro Datenspur und Adresse an. Die Gesamtdatenrate in realen Systemen beträgt 160 und 300 GB / s für die Gesamtsumme der Eingabe- und Ausgabedatenströme. Bisher eingeführte NVLink-Produkte konzentrieren sich auf den leistungsstarken Anwendungsbereich. NVLINK wurde erstmals im März 2014 angekündigt und verwendet eine proprietäre Hochgeschwindigkeits-Signalisierungsverbindung, die von Nvidia entwickelt und entwickelt wurde.

In der folgenden Tabelle sind die wichtigsten Funktionen von Volta-basierten Karten zusammengefasst:

NVIDIA VOLTA GRAFIKKARTEN

CUDA-Kerne Kerntensor Frequenzen (MHz) Speicher Speicherschnittstelle Speicherbandbreite (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4.096 Bit 900 250
GeForce Titan V. 5120 640 1200/1455 12 GB HBM2 3, 072 Bit 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 GB HBM2 4.096 Bit 900 250

Nvidias Zukunft geht über Turing und Ampere

Die beiden zukünftigen Nvidia-Architekturen werden Turing und Ampere sein. Nach all den Gerüchten, die bisher aufgetaucht sind, ist es möglich, dass beim Lesen dieses Beitrags eine davon bereits offiziell angekündigt wurde. Derzeit ist nichts mit Sicherheit über diese beiden Architekturen bekannt, obwohl Turing eine vereinfachte Version von Volta für den Spielemarkt sein soll. Tatsächlich wird erwartet, dass es mit demselben Herstellungsprozess bei 12 nm ankommt.

Ampere klingt nach Turings Nachfolgerarchitektur, könnte aber auch Voltas Nachfolger im Bereich der künstlichen Intelligenz sein. Es ist absolut nichts darüber bekannt, obwohl es logisch erscheint zu erwarten, dass es bei 7 nm hergestellt ankommt. Die Gerüchte deuten darauf hin, dass Nvidia seine neuen GeForce-Karten im nächsten August auf der Gamecom ankündigen wird. Erst dann werden wir Zweifel daran lassen, was Turing oder Ampere sein werden, wenn sie wirklich existieren.

NVIDIA G-Sync, Behebung von Problemen mit der Bildsynchronisierung

G-Sync ist eine proprietäre adaptive Synchronisierungstechnologie, die von Nvidia entwickelt wurde. Das Hauptziel besteht darin, Bildschirmrisse und die Notwendigkeit von Alternativen in Form von Software wie Vsync zu vermeiden. G-Sync verhindert das Zerreißen des Bildschirms, indem es gezwungen wird, sich an die Framerate des Ausgabegeräts, der Grafikkarte, anzupassen, anstatt dass sich das Ausgabegerät an den Bildschirm anpasst, was zu einem Bildriss führt der Bildschirm.

Damit ein Monitor G-Sync-kompatibel ist, muss er ein von Nvidia vertriebenes Hardwaremodul enthalten. AMD (Advanced Micro Devices) hat eine ähnliche Technologie für Displays namens FreeSync veröffentlicht, die dieselbe Funktion wie G-Sync hat, jedoch keine spezielle Hardware erfordert.

Nvidia hat eine spezielle Funktion erstellt, um zu vermeiden, dass ein neuer Frame fertig ist, während ein Duplikat auf dem Bildschirm gezeichnet wird. Dies kann zu Verzögerungen und / oder Ruckeln führen. Das Modul antizipiert die Aktualisierung und wartet auf den Abschluss des nächsten Frames. Die Pixelüberladung wird auch in einem nicht festgelegten Update-Szenario irreführend, und die Lösungen sagen voraus, wann das nächste Update stattfinden wird. Daher sollte der Overdrive-Wert für jedes Panel implementiert und angepasst werden, um Geisterbilder zu vermeiden.

Das Modul basiert auf einem FPGA der Altera Arria V GX-Familie mit 156K-Logikelementen, 396 DSP-Blöcken und 67 LVDS-Kanälen. Es wird im TSMC 28LP-Prozess hergestellt und mit drei Chips für insgesamt 768 MB DDR3L-DRAM kombiniert , um eine bestimmte Bandbreite zu erreichen. Das verwendete FPGA verfügt außerdem über eine LVDS-Schnittstelle zur Steuerung des Monitorfelds. Dieses Modul soll gängige Kletterer ersetzen und von Monitorherstellern, die sich nur um die Stromversorgungsplatine und die Eingangsanschlüsse kümmern müssen, problemlos integriert werden.

G-Sync wurde aufgrund seines proprietären Charakters und der Tatsache, dass es immer noch beworben wird, wenn freie Alternativen existieren, wie der VESA Adaptive-Sync-Standard, der eine optionale Funktion von DisplayPort 1.2a ist, kritisiert. Während AMDs FreeSync auf DisplayPort 1.2a basiert, benötigt G-Sync anstelle des üblichen Bildschirmskalierers ein von Nvidia erstelltes Modul, damit Nvidia GeForce-Grafikkarten ordnungsgemäß funktionieren und mit Kepler, Maxwell, Pascal und Mikroarchitekturen kompatibel sind . Volta.

Der nächste Schritt wurde mit der G-Sync HDR-Technologie unternommen, die, wie der Name schon sagt, HDR-Funktionen hinzufügt, um die Bildqualität des Monitors erheblich zu verbessern. Um dies zu ermöglichen, musste ein bedeutender Hardware-Sprung gemacht werden. Diese neue Version von G-Sync HDR verwendet ein Intel Altera Arria 10 GX 480 FPGA, einen hochentwickelten und hoch programmierbaren Prozessor, der für eine Vielzahl von Anwendungen codiert werden kann und von 3 GB 2400 MHz DDR4-Speicher von Micron begleitet wird. Dies verteuert den Preis dieser Monitore.

Hier endet unser Beitrag über alles, was Sie über Nvidia wissen müssen. Denken Sie daran, dass Sie es in sozialen Netzwerken teilen können, damit mehr Benutzer erreicht werden. Sie können auch einen Kommentar hinterlassen, wenn Sie Vorschläge oder Ergänzungen haben.

Android

Die Wahl des Herausgebers

Back to top button