▷ Intel xeon 【alle Informationen】

Inhaltsverzeichnis:
Im umfangreichen Katalog von Intel finden wir Intel Xeon-Prozessoren, die den Benutzern am wenigsten bekannt sind, weil sie sich nicht auf den heimischen Sektor konzentrieren. In diesem Artikel erklären wir, was diese Prozessoren sind und was die Unterschiede zu den inländischen sind.
Inhaltsverzeichnis
Was ist Intel Xeon?
Xeon ist eine Marke von x86-Mikroprozessoren, die von Intel entwickelt, hergestellt und vermarktet werden und auf die Märkte für Workstations, Server und eingebettete Systeme ausgerichtet sind. Intel Xeon-Prozessoren wurden im Juni 1998 eingeführt. Xeon-Prozessoren basieren auf derselben Architektur wie normale Desktop-CPUs, verfügen jedoch über einige erweiterte Funktionen wie ECC-Speicherunterstützung, höhere Anzahl von Kernen und Unterstützung für große RAM-Mengen., erhöhter Cache-Speicher und mehr Bereitstellung von Zuverlässigkeits-, Verfügbarkeits- und Wartungsfunktionen für Unternehmen, die für die Behandlung von Hardware-Ausnahmen über die Machine Check-Architektur verantwortlich sind. Abhängig von der Art und dem Schweregrad der Maschinenüberprüfungsausnahme können sie die Ausführung häufig sicher fortsetzen, wenn ein normaler Prozessor dies aufgrund ihrer zusätzlichen RAS-Eigenschaften nicht kann. Einige sind auch mit Multi-Socket-Systemen mit 2, 4 oder 8 Sockeln über den Quick Path Interconnect-Bus kompatibel.
Wir empfehlen, unseren Beitrag über AMD Ryzen zu lesen - Die besten von AMD hergestellten Prozessoren
Einige Mängel, die Xeon-Prozessoren für die meisten Consumer-PCs ungeeignet machen, umfassen niedrigere Frequenzen zum gleichen Preis, da Server mehr Aufgaben parallel ausführen als Desktops. Die Anzahl der Kerne ist wichtiger als die Häufigkeit von Beobachten Sie im Allgemeinen das Fehlen eines integrierten GPU-Systems und den Mangel an Übertaktungsunterstützung. Trotz dieser Nachteile waren Xeon-Prozessoren bei Desktop-Benutzern, hauptsächlich Spielern und extremen Benutzern, immer beliebt, hauptsächlich aufgrund des höheren Kernanzahlungspotenzials und eines attraktiveren Preis-Leistungs-Verhältnisses als der Core i7 der gesamten Rechenleistung aller Kerne. Den meisten Intel Xeon-CPUs fehlt eine integrierte GPU. Dies bedeutet, dass Systeme, die mit diesen Prozessoren gebaut wurden, entweder eine diskrete Grafikkarte oder eine separate GPU benötigen, wenn eine Monitorausgabe gewünscht wird.
Intel Xeon ist eine andere Produktlinie als Intel Xeon Phi, die den gleichen Namen trägt. Der Xeon Phi der ersten Generation ist ein völlig anderer Gerätetyp, der eher mit einer Grafikkarte vergleichbar ist, da er für einen PCI Express-Steckplatz konzipiert ist und als Mehrkern-Coprozessor wie der Nvidia Tesla verwendet werden soll. In der zweiten Generation wurde Xeon Phi zu einem Hauptprozessor, der Xeon ähnlicher war. Es passt auf den gleichen Sockel wie ein Xeon-Prozessor und ist mit x86 kompatibel. Im Vergleich zu Xeon betont der Designpunkt des Xeon Phi jedoch mehr Kerne mit höherer Speicherbandbreite.
Was ist der Intel Xeon Scalable?
Im Rechenzentrum des Unternehmens sind große Veränderungen im Gange. Viele Unternehmen befinden sich in einer umfassenden Transformation, die auf Online-Daten und -Diensten basiert und diese Daten für leistungsstarke Anwendungen für künstliche Intelligenz und Analyse nutzt, um daraus Ideen zu machen, die das Geschäft verändern, und dann Tools und Dienste zu implementieren, mit denen diese Ideen funktionieren.. Dies erfordert eine neue Art von Server- und Netzwerkinfrastruktur, die für künstliche Intelligenz, Analysen, umfangreiche Datenmengen und mehr optimiert ist und von einer revolutionären neuen CPU angetrieben wird. Hier kommt Intels Xeon Scalable- Linie ins Spiel.
Intel Xeon Scalable ist möglicherweise die größte Schrittänderung in zwanzig Jahren Xeon-CPU. Es ist nicht einfach ein schnelleres Xeon oder Xeon mit mehr Kernen, sondern eine Prozessorfamilie, die auf eine Synergie zwischen Computer-, Netzwerk- und Speicherfunktionen ausgelegt ist und allen drei neue Funktionen und Leistungsverbesserungen bietet.
Während Xeon Scalable eine durchschnittliche Leistungssteigerung von 1, 6x gegenüber Xeon-CPUs der vorherigen Generation bietet, gehen die Vorteile über die Standards hinaus und decken reale Optimierungen für Analyse, Sicherheit, KI und Bildverarbeitung ab. Es gibt mehr Leistung, um Hochleistungskomplexe zu betreiben. Wenn es um das Rechenzentrum geht, ist es in jeder Hinsicht ein Gewinn.
Die vielleicht größte und offensichtlichste Änderung ist der Ersatz der alten ringbasierten Xeon-Architektur, bei der alle Prozessorkerne über einen einzigen Ring verbunden waren, durch ein neues Netz oder eine neue Netzarchitektur. Dadurch werden die Kerne sowie der zugehörige Cache, der Arbeitsspeicher und die E / A in Zeilen und Spalten ausgerichtet, die an jeder Kreuzung miteinander verbunden sind, sodass Daten effizienter von einem Kern zum anderen verschoben werden können.
Wenn Sie es sich als Straßentransportsystem vorstellen, war die alte Xeon-Architektur wie ein Hochgeschwindigkeitsrundschreiben, bei dem sich Daten, die sich von einem Kern zum anderen bewegen, um den Ring bewegen sollten. Die neue Mesh-Architektur ähnelt eher einem Autobahnnetz, bei dem der Verkehr ohne Überlastung mit maximaler Punkt-zu-Punkt-Geschwindigkeit fließen kann. Dies optimiert die Leistung bei Multithread-Aufgaben, bei denen verschiedene Kerne Daten und Speicher gemeinsam nutzen können, und erhöht gleichzeitig die Energieeffizienz. Im einfachsten Sinne handelt es sich um einen Architekturzweck, der erstellt wurde, um große Datenmengen um einen Prozessor zu verschieben, der bis zu 28 Kerne haben kann. Darüber hinaus handelt es sich um eine Struktur, die effizienter erweitert wird, unabhängig davon , ob es sich um mehrere Prozessoren oder um neue CPUs mit noch mehr Kernen handelt.
Wenn es bei der Mesh-Architektur darum geht, Daten effizienter zu verschieben, versuchen die neuen AVX-512-Anweisungen, die Art und Weise ihrer Verarbeitung zu optimieren. Aufbauend auf der Arbeit, die Intel 1996 mit seinen ersten SIMD-Erweiterungen begonnen hat, können mit AVX-512 noch mehr Datenelemente gleichzeitig verarbeitet werden als mit AVX2 der nächsten Generation. Dadurch wird die Breite jedes Datensatzes verdoppelt und zwei weitere hinzugefügt, um die Leistung zu verbessern. AVX-512 ermöglicht doppelt so viele Gleitkommaoperationen pro Sekunde und Taktzyklus und kann doppelt so viele Datenelemente verarbeiten, wie AVX2 im selben Taktzyklus haben könnte.
Besser noch, diese neuen Anweisungen wurden speziell entwickelt, um die Leistung bei komplexen, datenintensiven Workloads wie wissenschaftlicher Simulation, Finanzanalyse, Deep Learning, Bild-, Audio- und Videoverarbeitung und Kryptografie zu beschleunigen.. Auf diese Weise kann ein skalierbarer Xeon-Prozessor HPC-Aufgaben mehr als 1, 6-mal schneller als das Äquivalent der vorherigen Generation erledigen oder künstliche Intelligenz und Deep-Learning-Vorgänge um das 2, 2-fache beschleunigen.
AVX-512 hilft auch bei der Speicherung und beschleunigt wichtige Funktionen wie Deduplizierung, Verschlüsselung, Komprimierung und Dekomprimierung, damit Sie Ihre Ressourcen effizienter nutzen und die Sicherheit lokaler und privater Cloud-Dienste verbessern können.
In diesem Sinne arbeitet AVX-512 Hand in Hand mit der Intel QuickAssist (Intel QAT) -Technologie. QAT ermöglicht die Hardwarebeschleunigung für die Datenverschlüsselung, -authentifizierung sowie -komprimierung und -dekomprimierung und erhöht so die Leistung und Effizienz von Prozessen, die hohe Anforderungen an die heutige Netzwerkinfrastruktur stellen und die sich nur erhöhen, wenn Sie mehr Dienste implementieren und digitale Werkzeuge.
In Verbindung mit SDI (Software Defined Infrastructure) kann QAT Ihnen dabei helfen, verlorene CPU-Zyklen wiederherzustellen, die für Sicherheits-, Komprimierungs- und Dekomprimierungsaufgaben aufgewendet wurden, sodass sie für rechenintensive Aufgaben zur Verfügung stehen, die einen echten Mehrwert für das Unternehmen bieten Firma. Da eine QAT-fähige CPU die Hochgeschwindigkeitskomprimierung und -dekomprimierung nahezu kostenlos verarbeiten kann, können Anwendungen mit komprimierten Daten arbeiten. Dies hat nicht nur einen geringeren Speicherbedarf, sondern erfordert auch weniger Zeit für die Übertragung von einer Anwendung oder einem System zu einem anderen.
Skalierbare Intel Xeon-CPUs lassen sich in die Chipsätze der C620-Serie von Intel integrieren, um eine Plattform für eine ausgewogene systemweite Leistung zu schaffen. Die Intel Ethernet-Konnektivität mit iWARP RDMA ist integriert und bietet eine 4x10GbE-Kommunikation mit geringer Latenz. Die Plattform bietet 48 PCIe 3.0-Konnektivitätsleitungen pro CPU mit 6 DDR4-RAM-Kanälen pro CPU mit Unterstützungskapazitäten von bis zu 768 GB bei 1, 5 TB pro CPU und Geschwindigkeiten von bis zu 2666 MHz.
Die Lagerung wird ebenso großzügig behandelt. Es bietet Platz für bis zu 14 SATA3-Laufwerke und 10 USB3.1-Anschlüsse, ganz zu schweigen von der integrierten virtuellen NMMe-RAID-Steuerung der CPU. Die Unterstützung der Intel Optane- Technologie der nächsten Generation erhöht die Speicherleistung weiter und wirkt sich dramatisch positiv auf die In-Memory-Datenbank und die analytischen Workloads aus. Mit Intel Xeon Scalable ist die Omni-Path-Fabric-Unterstützung von Intel integriert, ohne dass eine diskrete Schnittstellenkarte erforderlich ist. Daher sind skalierbare Xeon-Prozessoren für Anwendungen mit hoher Bandbreite und geringer Latenz in HPC-Clustern bereit.
Mit Xeon Scalable hat Intel eine Reihe von Prozessoren geliefert, die die Anforderungen von Rechenzentren der nächsten Generation erfüllen. Was bedeutet all diese Technologie in der Praxis? Für den Anfang Server, die größere analytische Workloads mit höheren Geschwindigkeiten bewältigen können und schnellere Einblicke aus größeren Datenmengen erhalten. Intel Xeon Scalable verfügt auch über die Speicher- und Rechenkapazität für erweiterte Deep Learning- und maschinelle Lernanwendungen, sodass Systeme in Stunden und nicht in Tagen trainieren oder die Bedeutung neuer Daten schneller und genauer ableiten können Bilder, Sprache oder Text verarbeiten.
Das Potenzial für In-Memory-Datenbank- und Analyseanwendungen wie SAP HANA ist enorm und die Leistung beim Ausführen von In-Memory-Workloads auf dem Xeon der nächsten Generation bis zu 1, 59-mal höher. Wenn Ihr Unternehmen auf das Sammeln von Informationen aus umfangreichen Datensätzen mit Echtzeitquellen angewiesen ist, kann dies ausreichen, um Ihnen einen Wettbewerbsvorteil zu verschaffen.
Xeon Scalable verfügt über die Leistung, den Speicher und die Systembandbreite, um größere und komplexere HPC-Anwendungen zu hosten, und findet Lösungen für komplexere geschäftliche, wissenschaftliche und technische Probleme. Es kann eine schnellere Video-Transcodierung in höherer Qualität bieten, während Videos an mehr Kunden gestreamt werden.
Eine Erhöhung der Virtualisierungskapazität könnte es Unternehmen ermöglichen, viermal mehr virtuelle Maschinen auf einem Xeon Scalable-Server auszuführen als auf einem System der nächsten Generation. Mit einem Overhead von nahezu Null für die Komprimierung, Dekomprimierung und Verschlüsselung ruhender Daten können Unternehmen ihren Speicher effektiver nutzen und gleichzeitig die Sicherheit erhöhen. Hier geht es nicht nur um Benchmarks, sondern um Technologie, die die Funktionsweise Ihres Rechenzentrums und damit auch Ihres Unternehmens verändert.
Was ist ECC-Speicher?
ECC ist eine Methode zum Erkennen und anschließenden Korrigieren von Einzelbit-Speicherfehlern. Ein Einzelbit-Speicherfehler ist ein Datenfehler bei der Produktion oder Produktion des Servers, und das Vorhandensein von Fehlern kann einen großen Einfluss auf die Leistung des Servers haben. Es gibt zwei Arten von Einzelbit-Speicherfehlern: harte und weiche Fehler. Physikalische Fehler werden durch physikalische Faktoren verursacht, wie übermäßige Temperaturschwankungen, Spannungsbeanspruchung oder physikalische Beanspruchung, die an Speicherbits auftritt.
Weiche Fehler treten auf, wenn Daten anders als ursprünglich beabsichtigt geschrieben oder gelesen werden, z. B. Schwankungen der Motherboard-Spannung, kosmische Strahlung oder radioaktiver Zerfall, die dazu führen können, dass Bits im Speicher zurückkehren flüchtig. Da die Bits ihren programmierten Wert in Form einer elektrischen Ladung beibehalten, kann diese Art von Interferenz die Belastung des Speicherbits verändern und einen Fehler verursachen. Auf Servern können an mehreren Stellen Fehler auftreten: in der Speichereinheit, im CPU-Kern, über eine Netzwerkverbindung und in verschiedenen Speichertypen.
Bei Workstations und Servern, auf denen Fehler, Datenbeschädigungen und / oder Systemausfälle unbedingt vermieden werden müssen, z. B. im Finanzsektor, ist der ECC-Speicher häufig der Speicher der Wahl. So funktioniert der ECC-Speicher. Beim Rechnen werden Daten über Bits, die kleinste Dateneinheit in einem Computer, empfangen und gesendet, die in Binärcode unter Verwendung von Eins oder Null ausgedrückt werden.
Wenn die Bits zusammen gruppiert werden, erzeugen sie Binärcode oder "Wörter", die Dateneinheiten sind, die geroutet werden und sich zwischen Speicher und CPU bewegen. Ein 8-Bit-Binärcode ist beispielsweise 10110001. Beim ECC-Speicher gibt es ein zusätzliches ECC-Bit, das als Paritätsbit bezeichnet wird. Dieses zusätzliche Paritätsbit bewirkt, dass der Binärcode 101100010 liest, wobei die letzte Null das Paritätsbit ist und zum Identifizieren von Speicherfehlern verwendet wird. Wenn die Summe aller Einsen in einer Codezeile eine gerade Zahl ist (ohne das Paritätsbit), wird die Codezeile als gerade Parität bezeichnet. Fehlerfreier Code hat immer eine gleichmäßige Parität. Die Parität weist jedoch zwei Einschränkungen auf: Sie kann nur eine ungerade Anzahl von Fehlern (1, 3, 5 usw.) erkennen und ermöglicht eine gerade Anzahl von Fehlern (2, 4, 6 usw.). Die Parität kann auch Fehler nicht korrigieren, sondern nur erkennen. Hier kommt der ECC-Speicher ins Spiel.
Der ECC-Speicher verwendet Paritätsbits, um verschlüsselten Code beim Schreiben von Daten in den Speicher zu speichern, und der ECC-Code wird gleichzeitig gespeichert. Beim Lesen der Daten wird der gespeicherte ECC-Code mit dem ECC-Code verglichen, der beim Lesen der Daten generiert wurde. Wenn der gelesene Code nicht mit dem gespeicherten Code übereinstimmt, wird er durch die Paritätsbits entschlüsselt, um festzustellen, welches Bit fehlerhaft war, und dieses Bit wird sofort korrigiert. Während der Datenverarbeitung scannt der ECC-Speicher ständig Code mit einem speziellen Algorithmus, um Einzelbit-Speicherfehler zu erkennen und zu korrigieren.
In unternehmenskritischen Branchen wie dem Finanzsektor kann das ECC-Gedächtnis einen großen Unterschied machen. Stellen Sie sich vor, Sie bearbeiten die Informationen in einem vertraulichen Kundenkonto und tauschen diese Informationen dann mit anderen Finanzinstituten aus. Angenommen, beim Senden der Daten wird eine Binärziffer durch eine elektrische Störung umgedreht. Der ECC-Serverspeicher schützt die Integrität Ihrer Daten, verhindert Datenkorruption und verhindert Systemabstürze und -ausfälle.
Wir empfehlen zu lesen:
Damit ist unser Artikel über Intel Xeon und alles, was Sie über diese neuen Prozessoren wissen müssen, beendet. Denken Sie daran, ihn in sozialen Medien zu teilen, damit er mehr Benutzern helfen kann, die ihn benötigen.
Intel optane vs ssd: alle informationen

Wir überprüfen die neue Intel Optane-Speichertechnologie und was sie in Zukunft erwartet.
▷ Intel Socket 1155 Prozessoren: Alle Informationen? Sandbrücke

Mit dem Intel Sockel 1155 begann ein denkwürdiger Zyklus für die Spielewelt. Deshalb zeigen wir Ihnen alle Informationen über ihn ✔️ ✔️
▷ Intel Celeron und Intel Pentium 【alle Informationen】

Wir erklären die Geschichte und Modelle der Intel Celeron- und Intel Pentium-Prozessoren. ✅ Funktionen, Design, Verwendung und deren Verwendung in Basis-PCs.