Tutorials

Ghz: Was ist und was ist ein Gigahertz im Computer?

Inhaltsverzeichnis:

Anonim

Wenn Sie in die Welt des Rechnens einsteigen und nach Prozessoren suchen, die Sie kaufen möchten, haben Sie GHz, Gigahertz oder Gigahertzio oft gelesen. All dies ist genau das gleiche, und nein, es ist kein Lebensmittelgewürz, es ist eine Maßnahme, die sehr häufig in Computer und Technik verwendet wird.

Inhaltsverzeichnis

Das Mindeste, was wir an dieser Stelle tun können, ist zu erklären, was diese Maßnahme misst und warum sie heute so häufig angewendet wird. Vielleicht werden Sie danach klarer über viele Dinge, denen Sie jeden Tag in der Welt der Elektronik begegnen.

Was ist ein GHz oder Gigahertz?

GHz ist die Abkürzung für eine in der Elektronik verwendete Messung namens Gigahertz auf Spanisch, obwohl wir sie auch als Gigahertz finden können. Und es ist nicht wirklich eine Basismaßnahme, aber es ist ein Vielfaches von Hertz, speziell sprechen wir von 10, 9 Millionen Hertz.

Was wir also wirklich definieren müssen, ist das Hertz, die Basismessung und woher die Kilohertz (kHz), Megahertz (Mhz) und Gigahertz (GHz) kommen. Nun, diese Maßnahme wurde von Heinrich Rudolf Hertz erfunden, von dessen Nachnamen der Name der Maßnahme stammt. Er war ein deutscher Physiker, der entdeckte, wie sich elektromagnetische Wellen im Weltraum ausbreiten. Diese Messung stammt also wirklich aus der Welt der Wellen und nicht nur aus dem Rechnen.

Ein Hertz repräsentiert einen Zyklus pro Sekunde. Bis 1970 wurde Hertz nicht als Zyklen bezeichnet. Falls Sie es nicht wissen, ist ein Zyklus einfach die Wiederholung eines Ereignisses pro Zeiteinheit, in diesem Fall die Bewegung einer Welle. Dann misst ein Hertz, wie oft sich eine Welle in der Zeit wiederholt, was Schall oder elektromagnetisch sein kann. Dies ist aber auch auf die Schwingungen von Festkörpern oder auf Meereswellen erweiterbar.

Wenn wir versuchen, ein Papier parallel zu seiner Oberfläche zu blasen, werden wir feststellen, dass es zu wellenförmig wird und sich das Muster von Zeit zu Zeit wiederholt, in Sekunden oder Tausendstelsekunden, wenn wir stark blasen. Das gleiche passiert mit Wellen, und bei dieser Größe nennen wir Frequenz (f) und es ist die Umkehrung einer Periode, die in klaren Sekunden gemessen wird. Wenn wir alles zusammenfassen, können wir Hertz als die Frequenz der Schwingung eines Teilchens (einer Welle, eines Papiers, eines Wassers) in einer Versicherungsperiode definieren.

Hier können wir die Form einer Welle sehen und wie sie sich über einen Zeitraum wiederholt. Im ersten haben wir die Messung von 1 Hz, weil es in einer Sekunde nur eine Schwingung erlitten hat. Und im zweiten Bild hat es in einer einzigen Sekunde 5 vollständige Schwingungen. Stellen Sie sich dann vor, wie viel 5 GHz wären.

Name Symbol Wert (Hz)
Microhertz µHz 0, 000001
Millihertz MHz 0, 001
Hertz Hz 1
Decahertz daHz 10
Hektoertium hHz 100
Kilohertz kHz 1.000
Megahertz MHz 1.000.000
Gigahertz GHz 1.000.000.000

GHz beim Rechnen

Jetzt, da wir wirklich wissen, was ein Hertz ist und woher er kommt, ist es an der Zeit, ihn auf das Rechnen anzuwenden.

Der Hertz misst die Frequenz eines elektronischen Chips. Am bekanntesten ist für uns der Prozessor. Wenn Sie also die Definition darauf übertragen, ist ein Hertz die Anzahl der Operationen, die ein Prozessor in einem Zeitraum von einer Sekunde ausführen kann. So wird die Geschwindigkeit eines Prozessors gemessen.

Der Prozessor eines Computers (und anderer elektronischer Komponenten) ist ein Gerät, das für die Ausführung bestimmter Vorgänge verantwortlich ist, die vom Hauptspeicher in Form von Anweisungen gesendet werden, die von den Programmen generiert werden. Dann wird jedes Programm in Aufgaben oder Prozesse und wiederum in Anweisungen unterteilt, die vom Prozessor einzeln ausgeführt werden.

Je mehr Hertz ein Prozessor hat, desto mehr Operationen oder Anweisungen kann er in einer Sekunde ausführen. Gemeinsam können wir diese Frequenz auch als " Taktrate " bezeichnen, da das gesamte System durch ein Taktsignal synchronisiert wird, so dass jeder Zyklus dieselbe Zeit dauert und die Informationsübertragung perfekt ist.

Die CPU versteht nur elektrische Signale

Wie Sie verstehen werden, versteht eine elektronische Komponente nur Spannungen und Ampere, Signal / kein Signal, daher müssen alle Anweisungen in Nullen und Einsen übersetzt werden. Gegenwärtig können Prozessoren gleichzeitig mit Zeichenfolgen von bis zu 64 Nullen und Einsen arbeiten, die als Bits bezeichnet werden, und sie repräsentieren das Vorhandensein oder Fehlen eines Spannungssignals.

Die CPU empfängt nur eine Folge von Signalen, die sie mit ihrer Struktur interner Logikgatter interpretieren kann , die wiederum aus Transistoren bestehen, die für das Weiterleiten oder Nichtdurchleiten elektrischer Signale verantwortlich sind. Auf diese Weise ist es möglich, dem Menschen eine „verständliche Bedeutung“ in Form von mathematischen und logischen Operationen zu geben: Addition, Subtraktion, Multiplikation, Division, AMD, OR, NOT, NOR, XOR. All dies und noch einige mehr sind die Vorgänge, die die CPU ausführt und die wir auf unserem PC in Form von Spielen, Programmen, Bildern usw. sehen. Neugierig, oder?

Die Entwicklung von GHz

Wir hatten Gigahertz nicht immer in der Suppe. Vor fast 50 Jahren träumten die Ingenieure nur davon, die Frequenz ihrer Prozessoren jemals so zu benennen.

Der Anfang war auch nicht schlecht. Der erste Mikroprozessor, der auf einem einzelnen Chip implementiert war, war der Intel 4004, eine kleine Kakerlake, die 1970 erfunden wurde und den Markt nach diesen riesigen Computern auf Vakuumventilbasis revolutionierte, die nicht einmal über RGB-Beleuchtung verfügten. Genau, es gab eine Zeit, in der es kein RGB gab. Tatsache ist, dass dieser Chip 4-Bit-Strings mit einer Frequenz von 740 KHz verarbeiten konnte, was übrigens nicht schlecht ist.

Acht Jahre später, und nach einigen Modellen, kam der Intel 8086, ein Prozessor mit nicht weniger als 16 Bit, der von 5 bis 10 MHz arbeitete und immer noch wie eine Kakerlake geformt war. Es war der erste Prozessor, der die x86-Architektur implementiert hat, die wir derzeit auf Prozessoren haben, unglaublich. Aber diese Architektur war so gut im Umgang mit Anweisungen, dass es ein Vorher und Nachher beim Rechnen war. Es gab auch andere wie IBMs Power9 für Server, aber zweifellos verwenden 100% der PCs weiterhin x86.

Aber es war der DEC Alpha-Prozessor, der 1992 als erster Chip mit RISC-Anweisungen die 1-GHz-Grenze erreichte, dann kam AMD 1999 mit seinem Athlon und im selben Jahr erreichten die Pentium IIIs diese Frequenzen.

Der CPI eines Prozessors

In der heutigen Zeit haben wir Prozessoren, die bis zu 5 GHz (5.000.000.000 Operationen pro Sekunde) erreichen können, und um das Ganze abzurunden, haben sie nicht nur einen, sondern bis zu 32 Kerne auf einem einzigen Chip. Jeder Kern kann noch mehr Operationen pro Zyklus ausführen, sodass sich die Kapazität vervielfacht.

Die Anzahl der Operationen pro Zyklus wird auch als VPI bezeichnet (nicht zu verwechseln mit dem Verbraucherpreisindex). Der IPC ist ein Indikator für die Leistung eines Prozessors. Derzeit ist es sehr modern, den IPC der Prozessoren zu messen, da dies bestimmt, wie gut ein Prozessor ist.

Lassen Sie mich erklären, zwei Grundelemente einer CPU sind die Kerne und ihre Frequenz, aber manchmal bedeutet mehr Kerne nicht mehr IPCs, so dass es möglich ist, dass eine 6-Kern-CPU weniger leistungsfähig ist als eine 4-Kern-CPU.

Die Anweisungen eines Programms sind in Threads oder Stufen unterteilt und werden in den Prozessor eingegeben, so dass im Idealfall in jedem Taktzyklus eine vollständige Anweisung ausgeführt wird, dies wäre IPC = 1. Auf diese Weise würde in jedem Zyklus eine vollständige Anweisung kommen und gehen. Aber nicht alles ist so ideal, da die Anweisungen weitgehend davon abhängen, wie das Programm erstellt wird und welche Art von Operationen ausgeführt werden sollen. Das Hinzufügen ist nicht dasselbe wie das Multiplizieren, und es ist auch nicht dasselbe, wenn ein Programm mehrere Threads als nur einen hat.

Es gibt Programme, um den IPC eines Prozessors unter möglichst ähnlichen Bedingungen zu messen. Diese Programme erhalten einen durchschnittlichen IPC-Wert, indem sie die Zeit berechnen, die der Prozessor benötigt, um ein Programm auszuführen. Serien wie diese:

Fazit und weitere interessante Links

Es ist wirklich ein sehr interessantes Thema, dieses über Hertz und wie die Geschwindigkeit eines Prozessors gemessen wird. Es gibt wirklich viele Themen zu besprechen, aber wir können auch keine Artikel wie Romane machen.

Zumindest hoffen wir, dass die Bedeutung des Hertz, die Frequenz, die Zyklen pro Sekunde und der CPI gut erklärt wurden. Jetzt hinterlassen wir Ihnen einige interessante Tutorials zum Thema.

Wenn Sie Fragen zum Thema haben oder auf etwas hinweisen möchten, hinterlassen Sie uns einen Kommentar im Feld.

Tutorials

Die Wahl des Herausgebers

Back to top button