Internet

Benchmarks: Was ist das? Wofür ist es? Geschichte, Typen und Tipps

Inhaltsverzeichnis:

Anonim

Benchmarks sind ein wesentlicher Bestandteil unserer täglichen Hardwareanalyse. Sie ermöglichen es uns, Ihnen eine wissenschaftlich vergleichbare Messung zwischen verschiedenen Komponenten wie CPUs, Grafikkarten, Speichereinheiten usw. anzubieten . Heute werden wir einige Zeilen seiner Geschichte widmen , seinen Typen, wie sie funktionieren, was sie messen, was die häufigsten Maßnahmen sind und wir werden Ihnen auch einige Tipps geben, wie man sie durchführt und welchen wir vertrauen sollten.

Was wir heute in der PC- oder mobilen Welt als Benchmark kennen, sind Techniken, die aus dem industriellen Umfeld stammen und seit Beginn dieser Revolution Entscheidungen auf der Grundlage vergleichbarer Daten in einer kontrollierten Umgebung ermöglichen.

Die Welt des modernen Rechnens wendet diese Techniken auf fast jede ihrer vielen verschiedenen Domänen an, und Heimanwender haben sie auch als zuverlässige Methode zum Erlernen der Leistung und der Fähigkeiten unserer Systeme sowie als wichtigen Informationspunkt verwendet, wenn um wichtige Entscheidungen zu treffen, wie den Kauf unseres neuen Computers, Mobiltelefons, unserer Grafikkarte usw.

Heute werden wir über die Geschichte der PC-Benchmarks sprechen, über die Arten der vorhandenen Benchmarks und darüber, welche Komponenten unseres Systems für diese Art von Tests besser geeignet sind, die nicht nur die Leistung betreffen.

Inhaltsverzeichnis

Geschichte

Der Benchmark oder das Messsystem wendet eine kontrollierte Umgebung und erkennbare Messungen an, die wissenschaftlich vergleichbar und überprüfbar sind und seit ihrer Existenz mit der Welt des Computers koexistieren. Die Benchmark als solche wurde so weit demokratisiert, dass ein Teil ihres grundlegenden Wesens verloren gegangen ist, nämlich dass sie von Dritten überprüft und überprüft werden kann. Jetzt verwenden wir es eher als schnellen Vergleich der Leistung, aber die Rückverfolgbarkeit seiner Richtigkeit durch Dritte ist sicherlich weitgehend verloren gegangen.

Die klassischsten Benchmark-Methoden haben sich immer auf die Rechenkapazität der CPU des Systems bezogen, obwohl sie in jüngster Zeit zwischen verschiedenen Komponenten variiert hat, da diese innerhalb eines Computers an Bedeutung und Bedeutung gewonnen haben.

Die beiden klassischsten Maßeinheiten, die noch angewendet werden, sind die Dhrystones und die Whetstones. Beide sind in gewisser Weise zur Grundlage aller synthetischen Benchmarks geworden, die wir heute kennen.

Das älteste ist Whetstones (ein Ort im Vereinigten Königreich, an dem sich die Atomenergiesparte des britischen staatlichen Energieversorgungsunternehmens befand), und Dhrystone spielte später mit dem Namen des ersten (nass und trocken).

Der erste wurde in den 70er Jahren entworfen und der zweite stammt aus den 80er Jahren. Beide sind die Grundlage für die vergleichende Leistung, die wir in den folgenden Jahren erzielt haben. Whetstones bot vereinfachend einen Einblick in die Rechenleistung des Prozessors bei Gleitkommaoperationen, Operationen mit einer großen Anzahl von Dezimalstellen.

Der Dhrystone ist sein Gegenstück, da er sich grundlegenden Anweisungen ohne Dezimalstellen widmet. Beide gaben ein klares Bild der Leistung eines Prozessors aus zwei völlig unterschiedlichen, aber komplementären Ansätzen. Whetstones und Dhrystone haben sich zu zwei Konzepten entwickelt, die wir heute viel häufiger verwenden: MIPS und FLOP.

Nach diesen Messungen folgten andere wie die FLOP (Gleitkomma-Arithmetik - Gleitkomma-Arithmetik), die heute in einem Computer größtenteils wichtiger ist als je zuvor, da sie die Grundlage für fortgeschrittene Berechnungen in vielen modernen Techniken darstellt. wie Algorithmen für künstliche Intelligenz, medizinische Algorithmen, Wettervorhersage, Fuzzy-Logik, Verschlüsselung usw.

LINPACK wurde in den 1980er Jahren von Ingenieur Jack Dongarra entwickelt und wird bis heute zur Messung der Gleitkomma-Rechenkapazität aller Systemtypen verwendet. Derzeit gibt es Versionen, die nach Architektur, CPU-Hersteller usw. optimiert sind.

Die FLOPS füllen unsere Artikel auf Grafikkarten (sicherlich mit einfacher oder doppelter Genauigkeit), Prozessoren und sind die Grundlage für die Berechnung des Strombedarfs und der Hardwareentwicklung für jeden Supercomputer, der in Betrieb oder Entwicklung ist.

Der FLOP ist heute die am meisten benötigte Leistungsmesseinheit in der Branche, wurde jedoch immer mit dem MIPS (Millionen von Anweisungen pro Sekunde) kombiniert, was eine interessante Messgröße darstellt, da er uns die Anzahl der Anweisungen gibt Grundlegende Arithmetik, die ein Prozessor pro Sekunde ausführen kann, die jedoch mehr von der Architektur des Prozessors (ARM, RISC, x86 usw.) und der Programmiersprache abhängt als von anderen Maßeinheiten.

Mit fortschreitender Leistung sind die Multiplikatoren aufgetreten. Wir messen jetzt die Leistung von Heim-CPUs in GIPS und GFLOPS. Die Basis bleibt die gleiche, klassische Rechenoperation. Sisoft Sandra bietet uns diese Art der Messung weiterhin in einigen seiner synthetischen Benchmarks an.

Das MIPS wurde auch als klassisches Element stärker in die CPU verbannt, und das FLOP wurde auf andere florierende Bereiche ausgedehnt, wie z. B. die Prozesskapazität oder die allgemeine Berechnung ehemaliger Prozessoren, die sehr auf bestimmte Aufgaben ausgerichtet sind, wie z. B. die GPUs, die wir alle auf unseren Prozessoren oder auf montieren unsere speziellen Erweiterungskarten.

Zu diesen Grundkonzepten hat die Zeit neue Maßeinheiten hinzugefügt, die genauso wichtig oder wichtiger sind als diese in einem modernen Computer oder Supercomputer. Die Datenübertragung ist eine dieser Maßnahmen, die sehr wichtig geworden ist und derzeit in IOPs (Eingabe- und Ausgabeoperationen pro Sekunde) und auch in anderen Formen wie MB / GB / TB-Speichermaßnahmen im Vergleich zu der dafür erforderlichen Zeit gemessen wird Transit von einem Punkt zum anderen (MBps - Megabyte pro Sekunde).

AS-SSD kann die Leistung einer Festplatte in MBps oder IOPs messen.

Gegenwärtig verwenden wir das Übertragungsmaß in seinen verschiedenen Multiplikatoren auch, um die Geschwindigkeit des Informationstransits zwischen zwei Punkten zu interpretieren, wenn bestimmte Informationen ausgegeben werden sollen, müssen wir tatsächlich etwas mehr Informationen generiert haben. Dies hängt vom Protokoll ab, das für die Übertragung von Informationen verwendet wird.

Ein klares Beispiel, das wir häufig verwenden, ist die PCI Express-Schnittstelle. Unter diesem Protokoll müssen wir für jeweils 8 Informationsbits, die wir verschieben möchten (0 oder 1s), 10 Informationsbits generieren, da diese zusätzlichen Informationen zur Steuerung der Kommunikation dienen, die zur Fehlerkorrektur, Datenintegrität usw. gesendet wird.

Andere bekannte Protokolle, die ebenfalls zu diesem „Verlust“ realer Informationen führen, sind die IP-Adresse, mit der Sie diesen Artikel lesen. Dadurch bietet Ihre 300MT / s-Verbindung tatsächlich eine Geschwindigkeit von etwas weniger als 300 MBit / s.

Daher verwenden wir den Gigatransfer oder die Übertragung, wenn wir uns auf Rohinformationen beziehen, die von der Schnittstelle gesendet werden, und nicht auf die Informationen, die tatsächlich im Empfänger verarbeitet werden. Ein 8GT / s PCI Express 3.0-Datenbus sendet tatsächlich 6, 4 GBit / s Informationen für jede zwischen den Punkten verbundene Leitung. Die Übertragung ist mit der Integration des PCI Express-Protokolls in alle Hauptbusse eines Heim- und Proficomputers sehr wichtig geworden.

In jüngster Zeit haben wir auch begonnen, Maßnahmen zu kombinieren, um die Verarbeitungsleistung mit anderen sehr wichtigen Faktoren im modernen Computer in Beziehung zu setzen, wobei der Verbrauch eine dieser Maßnahmen ist, die als Vergleichsskala zwischen der Leistung zweier Systeme eingeführt wird. Die Energieeffizienz ist heute genauso wichtig oder wichtiger als die Prozessleistung. Daher sind Benchmarks leicht zu erkennen, die die Prozessleistung anhand des Wattverbrauchs des zu messenden Elements vergleichen.

Tatsächlich bezieht sich eine der großen Listen von Supercomputern nicht so sehr auf die Bruttoleistung des Computers unter all seinen Rechenknoten, sondern auf die Entwicklung dieser Leistung basierend auf den Watt oder der Energie, die vom gesamten System verbraucht werden. Die Green500-Liste (FLOPS pro Watt - FLOPS pro Watt) ist ein klares Beispiel dafür, wie grundlegend der Verbrauch für jeden Benchmark mit Selbstachtung ist, obwohl wir uns die TOP500-Liste ohne Zweifel weiterhin genau ansehen, die diesen Faktor nicht als Konditionierungsfaktor hat.

Arten von Benchmarks

Obwohl wir über viel mehr Familien oder Arten von Benchmarks sprechen können, werde ich die Liste in den beiden häufigsten Klassen derjenigen vereinfachen, die uns allen als mehr oder weniger fortgeschrittene Benutzer am nächsten stehen.

Einerseits haben wir die synthetischen Benchmarks, die größtenteils diejenigen sind, die uns Maßnahmen bieten, über die wir zuvor gesprochen haben. Synthetische Benchmarks sind Programme, die kontrollierte Tests mit einem mehr oder weniger stabilen Programmcode durchführen, der auf eine bestimmte Plattform und Architektur ausgerichtet ist. Es handelt sich um Programme, die sehr spezifische Tests durchführen, die eine oder mehrere unserer Komponenten integrieren können, bei denen jedoch immer derselbe Test oder dieselben Tests ohne Änderungen durchgeführt werden.

Das Rendern von Bildern war schon immer eine gute Methode, um die Leistung einer CPU in einem modernen System zu ermitteln, da dies eine anspruchsvolle Aufgabe ist. Cinebench R15 verfügt auch über mehrere Tests, einen für die GPU und zwei für die CPU, bei denen wir die Leistung von Systemen mit mehreren Kernen und Prozessthreads kennen.

Sie bieten eine kontrollierte Testumgebung, in der außer für Versionen keine Änderungen vorgenommen werden und in der diese Änderungen ordnungsgemäß dokumentiert sind, damit der Benutzer weiß, welche Versionen miteinander verglichen werden können. Diese Arten von Programmen können verschiedene Subsysteme unseres Computers separat mit anderen Codeteilen oder bestimmten Benchmarks testen, um eine bestimmte Art von Test durchzuführen, oder kombiniert, die durch die Leistung einer, zweier oder mehrerer Systemkomponenten beeinträchtigt werden können. Der in ein Spiel integrierte Benchmark oder Programme wie Cinebench, Sisoft Sandra, SuperPI, 3DMark usw. sind klare Beispiele für synthetische Benchmarks.

Andere synthetische Benchmarks, die wir nicht mit echten Benchmarks verwechseln sollten, sind solche, die die Ausführung realer Programme simulieren oder die Aktionsskripte in realen Programmen ausführen. Sie sind ebenfalls synthetisch, da der Test keine Zufälligkeit aufweist. PC Mark ist ein klares Beispiel für a synthetisches Benchmark-Programm, das wir mit einem echten Benchmark verwechseln können.

Der eigentliche Benchmark ist eine ganz andere Testmethode, da er die Zufälligkeit der Verwendung eines Programms zur Messung seiner Leistung akzeptiert. Spieler sind es gewohnt, diese Art von Benchmarks oder Leistungstests durchzuführen, wenn wir die Qualitätsparameter eines Spiels an die Möglichkeiten unserer Hardware anpassen.

Das Messen der Leistung eines Spiels während des Spielens ist ein echter Maßstab.

Wenn Sie die FPS öffnen, die das Spiel gibt, und versuchen, die gewünschten 60 FPS kontinuierlich zu erreichen, führen sie einen echten Benchmark durch. Dasselbe kann auf jede andere Art von Programm hochgerechnet werden. Wenn Sie Entwickler sind und den Code Ihres Programms optimieren, führen Sie auch echte Benchmark-Tests durch, bei denen sich Ihr Code oder die Art seiner Ausführung auf einer Plattform von ändert stabile oder variable Hardware.

Beide Arten von Benchmarks sind wichtig. Die ersten ermöglichen es uns, unser System in einer kontrollierten Umgebung mit anderen zu vergleichen, und die zweiten sind eine Möglichkeit, unseren Betrieb zu optimieren, wobei zwei wichtige Faktoren hinzugefügt werden, die Zufälligkeit bei der Ausführung und der menschliche Faktor. Beide Faktoren bieten eine zusätzliche Sicht auf die Leistung der Komponente oder der Komponenten, die wir testen möchten.

Überlegungen beim Benchmarking

Damit ein Benchmark nützlich und effektiv ist, müssen wir bestimmte Faktoren berücksichtigen, die wirklich wichtig sind. Der Vergleich zwischen verschiedenen Plattformen und Architekturen führt zu einem wichtigen Unsicherheitsfaktor. Bei dieser Art von Benchmarks, mit denen Sie iOS-Mobiltelefone mit Windows x86-Computern vergleichen können, müssen Sie sie beispielsweise mit einer Pinzette verwenden, da sie sich nicht nur ändert Betriebssystemkernel, aber Prozessorarchitekturen sind sehr unterschiedlich. Die Entwickler dieser Art von Benchmarks (z. B. Geekbench) führen Korrekturfaktoren zwischen ihren verschiedenen Versionen ein, die kaum steuerbar sind.

Daher ist der erste Schlüssel für einen Benchmark, der zwischen verschiedenen Hardwarekomponenten vergleichbar ist, dass das Test-Ökosystem der Benchmark- Plattform, dem Betriebssystem, den Treibern und der Softwareversion so ähnlich wie möglich ist. Es wird hier sicherlich Elemente geben, die wir nicht homogenisieren können, wie den Grafikcontroller, wenn wir AMD-Grafiken gegen Nvidia-Grafiken testen, aber den Rest müssen wir versuchen, sie so stabil wie möglich zu machen. In diesem Fall würden wir auch Hardware einschließen, da Sie zum Vergleichen von Grafikkarten dasselbe Betriebssystem, denselben Prozessor, dieselben Speicher und alle Betriebsparameter verwenden müssen, wobei diese gleich bleiben, einschließlich der Parameter Qualität, Auflösung und Benchmark-Test. Je stabiler unser Test-Ökosystem ist, desto zuverlässiger und vergleichbarer werden unsere Ergebnisse sein.

Wir empfehlen zu lesen, wie Sie feststellen können, ob mein Prozessor einen Engpass aufweist.

Eine andere Sache, die wir berücksichtigen müssen, ist, dass Benchmark-Tests normalerweise einen Belastungsfaktor für die Hardware haben, die wir testen werden, und diese Hardware normalerweise Situationen aussetzen, die normalerweise bei der normalen Verwendung des Systems nicht auftreten. Jeder Benchmark, den wir von unserer Festplatte, Grafikkarte oder unserem Prozessor nehmen, unterwirft sie Situationen, die für die Hardware gefährlich sein können. Daher müssen wir die geeigneten Maßnahmen festlegen, damit der Spannungspunkt nicht zu einem Bruchpunkt wird oder auch nicht Ein Element der Leistungsreduzierung, da viele Komponenten über Schutzsysteme verfügen, mit denen sie ihre Leistung reduzieren, beispielsweise bei Temperaturen außerhalb ihres Einsatzbereichs. Angemessene Kühlung, Ruhezeiten zwischen den Tests, korrekte Zufuhr der zu testenden Komponenten… alles sollte sich in einer idealen Situation befinden, damit der Test reibungslos verläuft.

Andererseits verwenden wir auch genau diese Art von Benchmarks, um das System Belastungen auszusetzen, um seine Stabilität in dieser Art von Situation zu sehen. Dies ist eine andere Art der Anwendung eines Benchmarks, da nicht nur die Leistung ermittelt werden soll, sondern auch, ob Das System ist stabil und noch leistungsfähiger, wenn es in diesen Stresssituationen so funktioniert, wie es sollte.

Fazit

Für diejenigen von uns, die Computerhardware professionell testen möchten, ist der Benchmark ein funktionierendes Werkzeug, und dank dessen haben Benutzer eine wissenschaftliche und überprüfbare Möglichkeit, die Leistung unseres nächsten Computers in jedem seiner Subsysteme präzise zu vergleichen oder zu kennen. vergleichbar mit Werkzeugen auf industrieller Ebene.

Eine Testtabelle wie die im Bild gezeigte versucht, die Testmethode präzise zu standardisieren, damit der Vergleichsbenchmark so zuverlässig wie möglich ist und getestet werden kann, wenn Variationen eingeführt werden, die die Ergebnisse ändern.

Aber wie bei jedem „Labor“ -Test müssen die richtigen Bedingungen vorhanden sein, damit er zuverlässig ist, und noch mehr, damit er zwischen verschiedenen Systemen vergleichbar ist, damit er zuverlässig ist.

Heute haben wir Ihnen ein wenig über die Geschichte dieser Art von Programm, seine verschiedenen Arten, wie sie funktionieren und wie Sie zuverlässige Informationen von ihnen erhalten können, erzählt. Sie sind nützlich, aber für mich sind sie nur eine weitere Information, die ich im Hinterkopf behalten sollte, und ich würde sie immer hinter persönliche Erfahrungen und aktive Tests mit echten Programmen stellen, die wir jeden Tag verwenden werden.

Ein Benchmark ist in Ordnung, um Mindestleistungsdaten in unseren Entscheidungsprozess einzubeziehen. Sie sollten diese Entscheidungen jedoch nicht definieren und als letzten Tipp synthetische Benchmarks vermeiden, die behaupten, die Leistung zwischen Architekturen, Betriebssystemen usw. vergleichen zu können.

Internet

Die Wahl des Herausgebers

Back to top button