Nnp, dlboost und keem bay, neue Intel-Chips für ia und neuronale Netze
Inhaltsverzeichnis:
- NNP, DLBoost und Keem Bay, neue Intel-Chips für KI und neuronale Netze
- Prozessoren: DLBoost
- Movidius: Keem Bay VPU
- Nervana Neural Network Processors (NNP)
Intel kündigte auf seinem AI Summit-Event am 12. November neue dedizierte Hardware abseits des Massenmarktes, NNP, DLBoost und Keem Bay an. Diese Produkte sind ohne Zweifel der Höhepunkt von mehr als drei Jahren Arbeit seit der Akquisition von Movidius und Nervana in der zweiten Jahreshälfte 2016 und der Gründung ihrer AI Products Group unter der Leitung von Naveen Rao, Mitbegründer von Nervana.
NNP, DLBoost und Keem Bay, neue Intel-Chips für KI und neuronale Netze
Rao merkte an, dass Intel bereits ein großer Akteur im KI-Sektor ist und dass sein KI-Umsatz im Jahr 2019 3, 5 Milliarden US-Dollar übersteigen wird, gegenüber mehr als 1 Milliarde US-Dollar im Jahr 2017. Intel verfügt bereits über unterschiedliche Hardware für alle. OpenVINO-Fronten für IOt, Agilex-FPGAs, Ice Lake auf dem PC, DLBoost von Cascade Lake und noch weiter die zukünftige diskrete Grafik.
Prozessoren: DLBoost
Intel hat die Kompatibilität mit bfloat16 am Cooper Lake 56-Core demonstriert, die nächstes Jahr als Teil seiner DLBoost-Reihe von AI-Funktionen in seinen Prozessoren herauskommen wird. Bfloat16 ist ein numerisches Format, das eine ähnliche Genauigkeit wie das Gleitkomma mit einfacher Genauigkeit (FP32) im KI-Training erzielt.
Intel gab keine Schätzung der Leistungsverbesserung ab, gab jedoch an, dass Cooper Lake zu Inferenzzwecken 30-mal schneller ist als Skylake-SP. Auf der PC-Seite enthält Ice Lake dieselben DLBoost AVX-512_VNNI-Anweisungen wie in Cascade Lake.
Movidius: Keem Bay VPU
Im Rahmen seiner Strategie für künstliche Intelligenz wie intelligente Kameras, Roboter, Drohnen und VR / AR hat Intel Movidius 2016 übernommen. Movidius nennt seine Low-Power-Chips "Vision Processing Units" (VPU). Sie verfügen über ISP-Funktionen (Image Signal Processing), Hardwarebeschleuniger, MIPS-Prozessoren und programmierbare 128-Bit-Vektorprozessoren (VLIW), die Sie als SHAVE-Kerne bezeichnen.
Besuchen Sie unseren Leitfaden zu den besten Prozessoren auf dem Markt
Intel hat nun detailliert beschrieben, was es als "Gen 3" Intel Movidius VPU mit dem Codenamen Keem Bay bezeichnet. Laut Intel hat es eine mehr als zehnmal höhere Inferenzleistung als das Myriad X und verbraucht die gleiche Menge an Energie.
Nervana Neural Network Processors (NNP)
Intel verfügt über NNPs für Training und tiefe neuronale Netzwerkinferenz. Intels NNP-I für Inferenz basiert auf zwei Ice Lake Sunny Cove-Kernen und zwölf ICE-Beschleunigerkernen. Intel behauptet, dass es eine hervorragende Leistung pro Watt und Rechendichte liefern wird. In seinem M.2-Formfaktor ist es in der Lage, 50 TOPS bei 12 W zu erreichen, was 4, 8 TOPS / W entspricht, wie bereits angekündigt. Intel gab bekannt, dass der Formfaktor der PCIe-Karte 75 W verbraucht und bis zu 170 TOPS (mit INT8-Präzision) erzeugt.
Intel bekräftigte seine hohe nahezu lineare Skalierungseffizienz von 95% für 32 Karten im Vergleich zu 73% für Nvidia.
Intel hat ein breites Sortiment an Chips für alle Bereiche, KI, 5G, neuronale Netze, autonomes Fahren usw. in einem Markt vorbereitet, der in diesem Jahr einen geschätzten Umsatz von 10 Milliarden Dollar erzielte. Wir werden Sie auf dem Laufenden halten.
Tomshardware-SchriftartQnap erweitert sein Angebot an Nas für KMU um zwei neue 4-Bay- und Rackmount-Modelle für Gruppenarbeiten
Madrid, 8. April 2013: - QNAP® Systems, Inc., der taiwanesische Hersteller von NAS-Speicherprodukten für Verbraucher und KMU, hat sein Angebot erweitert
Neue Treiber für NVIDIA, AMD und Intel für Windows 10
AMD, Nvidia und Intel veröffentlichen neue Treiber, um ihre GPUs mit dem neuen Windows 10-Betriebssystem zu unterstützen
Xiaomi startet eine neue OTA für Android Oreo für die Xiaomi Mi A1
Xiaomi startet ein neues Android Oreo OTA für das Xiaomi Mi A1. Erfahren Sie mehr über das neue Update für das Telefon der chinesischen Marke.