Ati Technologies Inc: Geschichte, Modelle und Entwicklung
Inhaltsverzeichnis:
- 1985, das Jahr seiner Gründung
- 1987, EGA Wonder
- 1988, VGA Wonder
- 1990 ATI Mach 8
- 1992 Mach32
- 1994 Mach 64
- 1996, 3D Rage I, II
- Wut II
- 1997 Rage Pro und Kriegsbeginn
- 1999 Rage 128 und Rage 128 PRO
- Wut 128 PRO
- 2000, ATI Radeon DDR
- 2001 Radeon 8500
- 2002 Radeon 9000
- 2003 Radeon 9600 Pro
- 9800XT
- 2004 Radeon X700
- 2005 Radeon X850 XT
- 2006 X1650 Pro
- X1950 XTX, ein Schlag auf den Tisch
- 2007 HD 2900 XT
- HD 3850
- 2008 die Rückkehr auf den Thron
- HD 3870 X2
- HD 4670
- HD 4870, die beliebteste von allen
- 2009, HD 4890, HD 5770 und HD 5970
- 2010 das Ende von ATI
ATI Technologies war ein wesentliches Unternehmen in der Geschichte der Grafikkarten. Im Inneren erzählen wir Ihnen die ganze Geschichte. Wollen Sie es wissen?
Die Geschichte der Personal Computer wird von Unternehmen wie ATI Technologies geprägt, weil sie es geschafft haben, frühere Computer zu entwickeln. In diesem Fall widmete sich ATI der Herstellung von Grafikkarten und der Welt der 3D-Grafik in einem Kontext, der von anderen Herstellern wie 3dfx Interactive oder Nvidia geprägt wurde. Später wurde es von AMD übernommen und sein Name wurde 2010 AMD Radeon .
Als nächstes steht Ihnen die Geschichte eines der besten Grafikkartenhersteller der Geschichte zur Verfügung: ATI Technologies.
Inhaltsverzeichnis
1985, das Jahr seiner Gründung
ATI wird von Lee Ka Lau, Kwok Yuen Ho, Francis Lau und Benny Lau in Kanada gegründet. Dann würde es Array Technology Inc heißen und es wäre ein "einfacher" Hersteller von Geräten, insbesondere integrierten Grafikkarten. In diesem Sinne arbeiteten IBM und Commodore ebenfalls an derselben Sache. Tatsächlich war IBM einer der leistungsstärksten Hersteller der Welt.
Im Oktober desselben Jahres entwickelte ATI mithilfe der ASIC- Technologie seinen ersten Grafikcontroller, bei dem es sich um die erste integrierte Grafik handelt.
Alles begann mit " Small Wonder ".
1987, EGA Wonder
Beim Lesen werden Sie feststellen, dass die Grafikkarten durch die Technologie der Monitore gekennzeichnet sind. Darüber hinaus könnte man sagen, dass die Entwicklung von Grafikkarten und Monitoren Hand in Hand geht.
Derzeit veröffentlicht ATI seine erste Grafikkarte: die EGA Wonder. Es wurde so benannt, weil Monitore aus den späten 1980er Jahren EGA- Grafiken enthielten. Diese Karte funktionierte mit jeder Grafikschnittstelle, jedem Betriebssystem oder Monitor.
Dieser Hersteller interessierte sich für PCs und versuchte, ihnen schnellere Grafiken zur Verfügung zu stellen.
1988, VGA Wonder
Bei ATI "fragten" sie sich immer noch, wie die Welt der Grafikkarten aussehen würde, diesmal jedoch mit dem VGA Wonder. Es gab zwei Versionen: eine mit 256-KB- DRAM und die andere mit 512-KB- DRAM. Diese Grafik war eine 16-Bit-ISA-Karte, die in einem 8-Bit- ISA-Steckplatz ausgeführt wurde.
Es hatte einen Chip namens ATI 18800 und unterstützte den SVGA -Grafikmodus. Außerdem wird es automatisch mit dem Monitor synchronisiert.
Dieses Unternehmen begann sich in einem schwierigen Sektor mit viel Wettbewerb zu behaupten. Ich wusste jedoch nicht, dass der Krieg um 3D- Grafiken in den 90er Jahren droht.
1990 ATI Mach 8
Diese in den 90er Jahren veröffentlichte Grafik war der Beginn von 2D-Grafikbeschleunigern auf PCs. Mach8 war wie eine Erweiterung des Wonder und sie trugen einen geklonten Chip des IBM 8514 / A mit Erweiterungen. Dies war einer der ersten 2D-Grafikbeschleunigungschips auf dem Markt.
Für die Verwendung des Mach8 war jedoch eine weitere zusätzliche VGA- Karte erforderlich. Dies würde den Preis für 2D-Grafiken sehr teuer machen, da Sie eine VGA-Karte und den Mach8 kaufen mussten. Dieses ATI wurde an den ISA- oder MCA- Port angeschlossen, reproduzierte 8-Bit- Farben und hatte zwei Versionen:
- 512 KB . 1 MB.
Der Mach8-Chip würde in späteren Modellen verwendet und wäre eine Grafik, die Grafiken ohne CPU verarbeiten könnte.
1992 Mach32
Mit dem Mach32 wurde es langsam ernst, weil wir mehr als anständige Karten auf dem Markt sahen. Damals gab es MS-DOS, daher hat Mach32 einen 32-Bit- GUI- Beschleuniger für dieses Betriebssystem integriert. Außerdem war die Speicherschnittstelle 64-Bit und wir hatten zwei Modelle: ein 1 MB und das andere 2 MB.
Der Mach32 integrierte einen VGA-Prozessor, so dass es allein ausreichte, um zu funktionieren. Als neueste Daten verwendete ich immer noch ISA und MCA, aber auch PCI … einen Steckplatz, der in den 90er Jahren sehr berühmt war. Außerdem war er mit neuen Farbmodi kompatibel: 15 bbp, 16 bbp und 24 bbp, wie beim IBM 8514-Chip / A. A.
1993 wurde ATI Technologies Inc. an den Börsen in Toronto und NASDAQ notiert. Aus Neugier wäre das Handelssymbol nicht ATI, sondern ATY.
1994 Mach 64
In diesem Jahr wird ATI eine der neuesten Grafikkarten der "Mach" -Familie auf den Markt bringen. Wir fingen an, in die Präambel der 3D-Grafik einzusteigen. In der Zwischenzeit macht ATI sein eigenes Ding:
- 64-Bit- GUI- Beschleuniger. 1 MB bis 8 MB Videospeicher DRAM, VRAM oder SGRAM, ein Speicher für Grafikadapter mit zusätzlichen Funktionen. 64-Bit- Speicherschnittstelle. ISA-, VLB- und PCI- Ports.
Der Mach64-Chip war völlig neu und eine der ersten Grafikkarten, die Videos unterwegs beschleunigten. Dieser Chip wäre der Protagonist in der 3DRage, die wir später sehen werden.
Im selben Jahr bringt ATI eine mehrsprachige Software auf den Markt, die mit 13 verschiedenen Sprachen kompatibel ist. Diese Grafik würde Graphics Xpression oder Graphics Pro Turbo zum Leben erwecken.
1996, 3D Rage I, II
3D-Grafiken wurden von 3dfx Interactive, nVidia und ATI auf PCs übertragen. Insbesondere kombinierte 3D Rage 3D- Beschleunigung, Videobeschleunigung und 2D-Beschleunigung. Es war nicht nur der Nachfolger der Mach-Serie, sondern verwendete auch den gleichen Chip wie der Mach 64.
3D Rage wurde im April 1996 veröffentlicht und würde 3D Xpression verwenden, da es mit MPEG-1 kompatibel wäre. Es war der erste 3D-Chip in der Geschichte der Grafikkarten, was bedeutete, dass mehr als 1 Million Chips verkauft wurden.
Dies hatte jedoch gerade erst begonnen.
Wut II
Der 3D Rage 2 hat seinen Vorgänger in Bezug auf 3D-Grafiken beinahe verbeugt. Es enthielt einen mach64-Chip, der für eine bessere 2D-Leistung umstrukturiert wurde. Tatsächlich ist es mit seiner älteren Schwester Rage 1 kompatibel.
Diese Grafik hat die vorherige Generation in fast allem verbessert:
- PCI- kompatibel. Steigerung der 2D- Leistung um 20% . MPEG-2- Treiber unterstützen unter anderem Direct3D, Criterion RenderWare, Reality Lab und QuickDraw. Unterstützung für professionelle Lösungen wie AutoCAD. Kompatibel mit Windows 95, Mac OS, Windows NT, OS / 2 und Linux.Support DirectX 5.0.
Darüber hinaus lief sein Kern mit 60 MHz, sein SGRAM- Speicher mit bis zu 83 MHz und er hatte eine Bandbreite von 480 MB / s. Es war ein großartiges Produkt, das auf vielen PCs wie dem Macintosh G3 vorhanden war.
1997 Rage Pro und Kriegsbeginn
Wir sagen, dass der Krieg gedient ist, weil wir 1997 in Bezug auf 3D-Grafiken mit dem neuen nVidia RIVA 128 und dem Voodoo von 3dfx sehr wettbewerbsfähig sind. Der Rage Pro war die Lösung gegen diese beiden, aber ATI machte mehrere Fehler: Sie übertrafen weder ihre Rivalen noch unterstützten sie OpenGL.
Zu dieser Zeit war OpenGL unerlässlich, um die besten Videospiele zu genießen. ATI versucht es erneut mit Rage Pro Turbo, scheitert jedoch erneut an seinen Konkurrenten, da die Leistung nicht den Angaben entspricht und der Turbo den Pro nicht wesentlich verbessert hat.
Daher finden wir einen ATI als starken Hersteller von Grafikkarten, der Verträge mit Unternehmen wie Apple über die Integration von Grafiken auf Macs geschlossen hat. Außerdem arbeitet er daran, Grafikchips ins Fernsehen zu bringen. Nicht zu vergessen, dass der erste 3D-Chip für Laptops eingeführt wird, der den Namen Rage LT tragen würde.
Die Konkurrenz um 3D-Grafiken wäre jedoch härter als bisher angenommen, da die Rage trotz Direct3D 6- Gas mit DVD- Beschleunigung offenbar nicht gegen ihre Rivalen antritt.
1999 Rage 128 und Rage 128 PRO
Rage 128 war kompatibel mit Direct3D 6 und OpenGL 1.2. Es brachte die Neuheit von IDCT, ATIs erstem Dual- Textur- Renderer. Außerdem haben wir ihren Prozessor kennengelernt, der 32-Bit- Farben wie 16-Bit wiedergeben kann, obwohl dies in diesem Modus unerklärlich schlechter ist.
Diese Grafikkarte sollte gegen die RIVA TNT und die Voodoo 3, eine dekadente Karte, antreten. Auf der anderen Seite störte Matrox mit seinen G200 und G400. Schließlich konnte es gegen sie antreten und es lief wirklich gut, da das Voodoo 3 32-Bit nicht unterstützte.
Zum Abschluss wurden 250 MHz RAMDAC- und 2 AGP- Ports integriert.
Wut 128 PRO
Es wurde im August 1999 gestartet, integrierte 250-nm-Chips und unterstützte DirectX 6.0. Es war der Nachfolger des Rage 128 und sein Chip hatte Verbesserungen in Bezug auf DirectX- Komprimierung, bessere Texturfilterung, DVI- Unterstützung und mehr AGP- Ports. Diese Grafik wurde entwickelt, um gegen den Voodoo 3 2000, den TNT2 und den Matrox 6400 anzutreten.
Die Wahrheit ist, dass es kein Produkt war, das mit den genannten Modellen von Ihnen zu Ihnen konkurrieren konnte, weil seine Uhr langsamer war. Zugegeben, ATI hat es geschafft, alle Benchmarks zu brechen, aber als es darauf ankam, enttäuschte seine Videospielleistung.
Die nächste Serie würde Rage 6 heißen, aber ihren Namen in Radeon ändern, einen der bekanntesten Namen auf Grafikkarten.
2000, ATI Radeon DDR
Von Rage würden wir zu Radeon gehen, einer Linie, über die im 21. Jahrhundert viel zu reden wäre. Diese neue Serie würde im April 2000 erscheinen. Zu diesem Zeitpunkt würde die Radeon DDR vorgestellt. Angesichts anhaltender Misserfolge gegen nVidia wollte ATI nicht scheitern und nahm DDR daher sehr ernst.
Um den Kontext zu verdeutlichen, befanden wir uns in der Ära von Pentium 4 und AMD Athlon, daher gab es einige 3D-Grafiken, die von Spielen wie Quake markiert wurden.
Nachdem wir diese Serie vorgestellt haben, wollen wir uns voll und ganz der DDR widmen. Es wurde auf 180-nm- Chips von TSMC gebaut. Es unterstützte DirectX 7.0 und brachte die Nachricht von 2 Pixel-Shadern und 1 Vertex-Shader zusammen mit 6 TMUs und 2 ROPs. Außerdem war es mit OpenGL 1.3 kompatibel. Schließlich würde es die HyperX- Technologie bringen und den ersten Chip der Serie einbauen: den R100.
Wir hatten zwei Modelle: 32 MB und 64 MB. Der letzte hat eine schnellere Uhr (183 MHz) und eine LIVE- Kapazität. Sein Hauptkonkurrent war die GeForce- Serie von nVidia, aber ATI hat die Welt mit seinen Radeons nicht verrückt gemacht, obwohl es ein Produkt war, das sehr gut funktionierte.
2001 Radeon 8500
Im Jahr 2001 ging ATI den Weg des Qualitäts- Preis- Verhältnisses, da nVidia nicht vom Markt genommen werden konnte. In diesem Bereich war es schwierig, ATI zu schlagen, da dies ein großartiger geschäftlicher Schritt war.
Die ATI Radeon 8500 wurde am 14. August 2001 veröffentlicht. Es verwendete 150-nm- Chips und war auf die meisten Spieler ausgerichtet . Innerhalb dieser Serie hätten wir 3 Karten:
- 8500, die High-End. Sie enthielten 4x, 64 MB oder 128 MB AGP, 250 MHz und ein 8 GB / s Breitband. 8500LE, die Mittelklasse. Sie kamen mit 4x, 64mb oder 128mb AGP, 275MHz und einem 8500XT-Breitband mit 8, 8 GB / s, der begeisterten Reichweite. Es wurde nicht gestartet, würde aber 4x, 128 MB, 300 MHz AGP und ein 9, 6 GB / s Breitband übertragen
Der XT wurde abgebrochen, weil er mit nur 300 MHz von der GeForce 4 Ti4600 zerquetscht worden wäre. Daher konzentrierte sich ATI auf den mittleren und unteren Bereich.
2002 Radeon 9000
Im selben Jahr veröffentlichte ATI den 8500 All-In-Wonder, der ein Erfolg war, da er einen analogen Fernsehtuner und ein UKW-Radio enthielt. Im Multimedia- Bereich verwüstete es ohne Komplexe.
Die Radeon 9000 ist vollständig in 3D-Grafiken integriert und gehört zur R300- Serie. Sie wurde im August 2002 auf den Markt gebracht. Es ist eine GPU, die Direct3D 9.0 und OpenGL 2.0 unterstützt. Es war auch kompatibel mit Windows 98, 98SE, Me, 2000 und XP.
Es hatte 64 MB oder 128 MB DDR, 200 MHz Kern und 500 MHz Speicher. Schließlich betrug die Bandbreite 8 GB / s. Es war eine etwas leichte Grafik, da sie niedrigere Spezifikationen als der 8500 hatte.
2003 Radeon 9600 Pro
Mit der Veröffentlichung der Radeon 9600 Pro am 1. Oktober 2003 wird es ernst. Mit 130-nm- Chips und 128-MB- Speicher konnte eine Bandbreite von 9, 6 GB / s bereitgestellt werden. Es unterstützt OpenGL 2.0 und DirectX 9.0. Es hatte DVI-, VGA- und S- Video- Ausgänge. Es wurde der RV360- Chip montiert.
Es ist wahr, dass der 9600 Pro die Mission hatte, den 9500 Pro zu ersetzen, aber er hat es nicht getan, obwohl er viel billiger war. Wir stiegen in eine 600- MHz- Uhr ein, die sich auf eine Mittelklasse konzentrierte, die eine spektakuläre Leistung erbrachte.
Der einzige Nachteil war, dass Shader Model 3.0 nicht unterstützt wurde. Auf der anderen Seite müssen wir den Fortschritt hervorheben, den die Mobility Radeon 9600 in Grafiken für Laptops darstellt.
9800XT
ATI überraschte jedoch mit dem 9800XT im selben Jahr, einer Karte, die beängstigend war. Es war eine Grafik mit 256 MB Speicher, einer Bandbreite von 23, 36 GB / s und einem 412- MHz- GPU- Takt wie einem 365-MHz- Speichertakt, der 730 MHz ausgeben kann.
ATI kehrte zum Ring zurück und trat mit Nvidia von Ihnen zu Ihnen an. Natürlich zu einem sehr hohen Preis.
2004 Radeon X700
Die neue Radeon R420- Serie würde durch die X700- und X800- Grafik gekennzeichnet sein. Das X700 hatte keinen guten Einstieg, da es trotz eines sehr erschwinglichen Preises nicht mit dem Shader Pixel 3.0 kompatibel war. Die GeForce 6600 und 6800 brachten die Katze ins Wasser. PCI - Express wurde verwendet.
ATI veröffentlichte weiterhin High-, Medium- und Low-End-Modelle. In diesem Fall der X700 SE, der X700 LE, der X700, der X700 Pro und derjenige, der nie herauskam: der X700XT. Diese Serie hörte nicht auf, also mussten wir ein weiteres Jahr warten.
Wir empfehlen AMD, den Preis seiner Grafikkarten zu senkenIn diesem Jahr haben wir die Nvidia SLI- Plattform (entsprechend 3dfx) gesehen, aber ATI reagierte mit Crossfire, einer sehr ähnlichen Plattform, die die Leistung ihrer x2-, x3- oder x4-Grafik je nach installierter Grafik kombiniert.
2005 Radeon X850 XT
Nvidia hat den FX 5800 Ultra herausgebracht, weshalb ATI mit seinem neuen Modell X850 XT gegen ihn antrat.
Diese Grafik war sehr schnell, aber die Situation mit dem Shader Model 3.0 wurde verschlechtert, da es viele Spiele gab, die auf AMD-Geräten nicht funktionierten. Wir hatten also eine spektakuläre Grafik, aber es hing von einer Community von Benutzern ab, das betreffende Spiel zu „hacken“ und es spielen zu können.
Der X850 XT hatte 256 MB GDDR3, eine Bandbreite von 34, 56 GB / s, einen 520- MHz- Takt und einen Speicher, der 1080 MHz erreichen kann. Sein großer Nachteil: das Shader Model 2.0b.
Es muss gesagt werden, dass ATI Nvidia in anderen Bereichen besiegt hat, wie es bei der GeForce 6800 GT passiert ist .
2005 startete ATI erneut mit dem X1300 Pro. Trotz seiner Kompatibilität mit Shader Model 3.0… wurde es erneut von Nvidia besiegt.
2006 X1650 Pro
Wir sind in der R520- Serie, die von ATI entwickelt und TSMC produziert wurde. Alle diese Serien hätten Direct3D 9.0c, Shader Model 3.0 und OpenGL 2.0. Dies würde nicht ausreichen, obwohl es gegen Nvidia antreten könnte.
Der X1650 Pro verwendete einen RV535- Kern, wodurch er kühler und effizienter wurde. Wir waren bei DDR2, 256 MB, 800 MHz Frequenz und einer Bandbreite von 12, 8 GB / s. Es war gut im Mittelfeld, aber nichts weiter.
X1950 XTX, ein Schlag auf den Tisch
Nur der Name war beängstigend und nicht weniger, weil der X1950XTX die Geforce 7 besiegte und das Königreich nach Nvidia stürzte. Es war sehr teuer, ein Herd, aber furchtbar schnell. Es wurde am 23. August 2006 vorgestellt.
Es unterstützte GDDR4- Speicher, arbeitete mit 1 GHz und bot 64 GB / s Bandbreite. Nicht nur das, es hatte eine Core 650 MHz GPU und 512 MB Videospeicher.
2007 HD 2900 XT
Wir sind auf die R600-Serie umgestiegen, die am 28. Juni 2007 veröffentlicht wurde. Es waren die HD 2000-Grafikkarten, die mit GeForce 8 konkurrieren würden. Als herausragendes Modell war der HD 2900 XT selbst in seinem silbernen Flammen-Design in seinem roten Gehäuse extrem.
Die Leistung war brutal, wurde aber mit dem Treiber-Update weiter verbessert. Es enthielt einen Lüfter, der mehr Lärm machte als der Krieg und der nicht ausreichte, um die Grafik frisch zu halten. Obwohl gemunkelt wurde, dass es 1 GB Speicher enthalten würde, waren sie schließlich 512 MB.
HD 3850
ATI musste sich auf andere Nischen konzentrieren, weil die neue GeForce dies in Schach hielt. Auf diese Weise entstand die HD 3850, Grafikkarten, die sehr gut funktionierten und für ihre Leistung im mittleren Bereich beliebt wurden.
2008 die Rückkehr auf den Thron
Nvidia dominierte die High-End-Grafik und ATI schien Rocky Balboa schwindelig zu sein, was in den letzten Runden zu präzisen Hocken führte . Die beiden Markierungen stachen gnadenlos.
HD 3870 X2
Du musst niemals aufgeben. ATI kämpfte alle 8 Monate darum, etwas herauszubekommen, das mit Nvidia konkurrieren könnte. Dieses Mal haben sie viel rohe Gewalt angewendet, da es 2 Grafikkarten in 1 waren.
Es überrascht nicht, dass der Strombedarf brutal war und man die Stromversorgungen (und die Stromrechnung) berücksichtigen musste. Wie auch immer, diese Grafik hat dank ihrer großartigen Leistung den Thron wiedererlangt.
HD 4670
ATI wusste, dass sein größtes Kapital im mittleren Bereich lag, da es sehr gute Grafikkarten zu einem moderaten Preis verkaufen konnte. Wir waren in einer Zeit, in der HD regierte und 720p alle Computer besetzte. Diese 512 MB GDDR3- Grafik funktionierte sehr gut und war mit DirectX 10.1, OpenGL 3.3 und Shader Model 4.1 kompatibel.
Diese Mini-Grafik war perfekt für Multimedia-Geräte oder kleine Computer (HTPC). Gut durchdachte ATI!
HD 4870, die beliebteste von allen
Es wurde schnell populär, weil es die beste Grafikkarte mit einem guten Preis-Leistungs-Verhältnis auf dem Markt war. Er stürzte Nvidia erneut mit einer runden Grafik in jeder Hinsicht. Was am meisten anzog, war der günstige Preis von 299 US-Dollar. Es wurde am 25. Juni 2008 veröffentlicht.
Seine Spezifikationen waren großartig:
- PCIe 2.0. 1 GB oder 512 MB GDDR5. GPU-Takt: 750 MHz. Speichertakt: 3600 MHz bei maximaler Leistung. 350 W Netzteil erforderlich.
ATI hat eine X2-Version für die anspruchsvollsten veröffentlicht. Es scheint jedoch, dass die Fahrer ihre Leistung besser hätten nutzen können.
2009, HD 4890, HD 5770 und HD 5970
HD 5770
Wir sind im letzten Jahr von ATI als unabhängiges Grafikkartenunternehmen. Praktisch niemand wusste das, aber es war heute keine brutale Veränderung.
Beginnend mit HD 4890 war es eine Aufarbeitung von HD 4870 und hatte nicht den Erfolg, den ATI von ihm erwartet hatte. Es hatte gute Spezifikationen und eine gute Leistung in Full HD, aber nichts war weiter von der Realität entfernt: Nvidia dominierte erneut stark mit seiner GTX.
Aus diesem Grund wurde im selben Jahr die HD 5770 vorgestellt, eine Mittelklasse-Karte, die viele Häuser eroberte. Seine Hauptgründe:
- Geringer Verbrauch Sehr sparsam Sehr gute Leistung
Diese Firma war in den unteren Mittelbereich abgestiegen, so dass niemand einen weiteren Treffer am Tisch erwartete, wie dies bei der HD 4870 oder der X1950XTX der Fall war. In diesem Jahr war AMD bereits im Unternehmen vertreten, daher war die Übernahme ein offenes Geheimnis.
2009 würde für ATI mit zwei neuesten Versionen enden: der HD 5780 und der HD 5970. Es waren Grafikkarten, die für den Preis im hohen Bereich lagen, aber nicht für die Leistung. Versteh mich nicht falsch, seine Leistung war gut, aber es passte nicht zum Besten von Nvidia, dessen Modelle viel mehr Geld wert waren.
Die HD 5970 war eine X2-Grafik, wie wir sie gewohnt waren. ATI kehrte zurück, um Nvidia mit dieser großartigen Grafikkarte zu antworten, aber der Verbrauch distanzierte jeden Käufer.
2010 das Ende von ATI
Das Ende von ATI würde mit der neuesten Version einhergehen: der HD 5670. Diese Grafik eröffnete eine neue Möglichkeit für die Mittelklasse auf dem Markt, da sie sehr gute Spezifikationen zu einem wettbewerbsfähigen Preis brachte. Trotz des Kaufs von AMD im Jahr 2006 verschwand die Marke ATI im Jahr 2010. Die erste AMD- Grafik wäre die HD 6850, eine ziemlich gute und kontinuierliche Grafik.
So enden die traurigen Geschichten. ATI hatte in den 90ern sehr gute Zeiten, aber das 21. Jahrhundert ging bergauf. Das Nvidia-Ding hatte viel Verdienst, weil es keine monströsen Grafiken wie ATI brauchte, um die beste Leistung in Videospielen zu erzielen. Die Forschung und Entwicklung war ohne Debatte besser als die von ATI.
Wir empfehlen Ihnen, die besten Grafikkarten zu lesen
Was denkst du über die Geschichte von ATI? Teilen Sie Ihre Eindrücke!
▷ Gateron-Schalter: Geschichte, Modelle und ist es besser als Cherry MX? ?
Möchten Sie alles über Gateron wissen? Die chinesische Marke bietet einen billigen, funktionalen und qualitativ sehr guten Schalter und hier werden wir ihn analysieren
Kailh-Schalter: Geschichte, Modelle und alles, was Sie wissen müssen
Der Kailh-Schalter bietet uns sehr interessante Alternativen zu Cherry. Gehen Sie hinein und entdecken Sie, wie Kailh sich von Kirschs Schatten gelöst hat.
Kreativer Sound Blaster: Geschichte, Modelle, Entwicklung und mehr
Creative Sound Blaster ist eine sehr erfolgreiche Reihe von Soundkarten. Wir erzählen Ihnen all seine Geschichte, Modelle und seine Entwicklung im Inneren.