Direkt zum Hauptinhalt

TensorFlow

DATABRICKS KOSTENLOS TESTEN

Im November 2015 veröffentlichte Google sein Open-Source-Framework für maschinelles Lernen unter dem Namen TensorFlow. Es unterstützt Deep Learning, neuronale Netzwerke und allgemeine numerische Berechnungen auf CPUs, GPUs und GPU-Clustern. Zu den größten Vorteilen von TensorFlow gehört die Open-Source-Community aus Entwicklern, Data Scientists und Data Engineers, die zu seinem Repository beitragen. Die aktuelle Version von TensorFlow ist zusammen mit den Versionshinweisen auf GitHub verfügbar. TensorFlow ist die derzeit wohl am häufigsten eingesetzte KI-Engine.

Was ist TensorFlow?

TensorFlow ist eine Open-Source-Bibliothek für numerische Berechnungen, umfangreiches Machine Learning, Deep Learning und andere statistische und prädiktive Analysen. Mithilfe dieser Technologie können Entwickler Machine-Learning-Modelle schneller und einfacher implementieren, da sie den Prozess der Datenerfassung, der Bereitstellung von umfassenden Vorhersagen und der Optimierung künftiger Ergebnisse unterstützt.

Also, was genau leistet TensorFlow? TensorFlow kann neuronale Deep-Learning-Netzwerke trainieren und ausführen, z. B. zur Klassifizierung handschriftlicher Zahlen, zur Bilderkennung, zur Einbettung von Wörtern oder zur Verarbeitung natürlicher Sprache (NLP). Der in den TensorFlow-Softwarebibliotheken enthaltene Code kann zu jeder Anwendung hinzugefügt werden, um sie beim Erlernen dieser Tasks zu unterstützen.

Die Anwendungen von TensorFlow können sowohl auf herkömmlichen CPUs (zentralen Recheneinheiten) als auch auf GPUs (leistungsstärkeren Grafikprozessoren) laufen. Da TensorFlow von Google entwickelt wurde, läuft es auch auf den firmeneigenen Tensor Processing Units (TPUs), die speziell für die Beschleunigung von TensorFlow-Jobs entwickelt wurden.

Sie fragen sich möglicherweise auch, in welcher Sprache TensorFlow geschrieben ist? Obgleich es Python als Front-End-API für die Erstellung von Anwendungen mit dem Framework verwendet, verfügt TensorFlow auch über Wrapper in verschiedenen Sprachen, darunter C++ und Java. Dies bedeutet, dass Sie Ihr Machine-Learning-Modell schnell trainieren und einsetzen können, unabhängig von der von Ihnen verwendeten Sprache oder Plattform.

Hier finden Sie weitere FAQs zum Thema Modellentwicklung mit TensorFlow.

Die Geschichte von TensorFlow

Google veröffentlichte TensorFlow erstmals im Jahr 2015 unter der Apache-Lizenz 2.0. Der Vorgänger von TensorFlow war ein Closed-Source-Framework von Google namens DistBelief, das eine Testumgebung für die Implementierung von Deep Learning bot.

Die ersten Google-TPUs wurden 2016 öffentlich vorgestellt und intern in Verbindung mit TensorFlow für einige der Anwendungen und Online-Dienste des Unternehmens verwendet, darunter auch der Google-Suchalgorithmus RankBrain sowie die Kartierungstechnologie Street View.

Anfang 2017 erreichte Google TensorFlow den Release 1.0.0. Ein Jahr später stellte Google den Nutzern der Google Cloud Platform die zweite Generation der TPUs für das Training und die Ausführung ihrer eigenen Machine-Learning-Modelle zur Verfügung.

Im Oktober 2019 veröffentlichte Google die neueste Version, TensorFlow 2.0. Unter Einbeziehung von Nutzerfeedback hatte Google diverse Verbesserungen an dem Framework vorgenommen und die Arbeit damit vereinfacht – so wird nun beispielsweise die relativ einfache Keras API für das Modelltraining verwendet.

Wer hat TensorFlow entwickelt?

Wie Sie inzwischen wissen, wurde TensorFlow von Google entwickelt. Das Framework befindet sich auch weiterhin im Besitz von Google und wird von Google betreut. Es wurde vom Google Brain-Forscherteam erstellt. Das Team betreibt Grundlagenforschung, um maschinelle Intelligenz in Schlüsselbereichen voranzubringen und das theoretische Verständnis von Deep Learning zu vertiefen.

Das Team von Google Brain hat TensorFlow so konzipiert, dass das Framework unabhängig von der Google-eigenen Computerinfrastruktur eingesetzt werden kann, doch resultieren auch zahlreiche Vorteile aus der Tatsache, dass es von einem großen Wirtschaftsunternehmen unterstützt wird. Google hat nicht nur die rasante Entwicklung des Projekts finanziert, sondern TensorFlow im Laufe der Jahre auch immer weiter verbessert, um sicherzustellen, dass es einfach zu implementieren und anzuwenden ist.

Google hat sich entschieden, TensorFlow als Open-Source-Framework zur Verfügung zu stellen, um die Entwicklung von KI zu beschleunigen. Da es sich um ein Community-Projekt handelt, können alle Nutzer an der Verbesserung der Technologie mitwirken – und alle profitieren davon.

Wie funktioniert TensorFlow?

TensorFlow kombiniert verschiedene Modelle und Algorithmen für Machine Learning und Deep Learning (oder neuronale Netze) und macht sie über eine gemeinsame Schnittstelle nutzbar.

Entwickler können damit Datenflussdiagramme mit Rechenknoten erstellen, die mathematische Operationen darstellen. Jede Verbindung zwischen den Knoten stellt mehrdimensionale Vektoren oder Matrizen dar, die so genannte Tensoren bilden.

Zwar stellt Python die Front-End-API für TensorFlow bereit, die eigentlichen mathematischen Operationen werden jedoch nicht in Python durchgeführt. Stattdessen führen leistungsstarke C++-Binärdateien diese Operationen im Hintergrund aus. Python steuert den Traffic zwischen den einzelnen Teilen und verbindet sie über hochentwickelte Programmierabstraktionen miteinander.

TensorFlow-Anwendungen können auf nahezu jedem geeigneten Endgerät ausgeführt werden, einschließlich iOS- und Android-Geräten, lokalen Rechnern oder einem Cluster in der Cloud – und auch auf CPUs oder GPUs (oder den benutzerdefinierten TPUs von Google, wenn Sie die Google Cloud nutzen).

TensorFlow beinhaltet sowohl High-Level- als auch Low-Level-APIs. Google empfiehlt die High-Level-APIs, um die Entwicklung von Datenpipelines und die Anwendungsprogrammierung zu vereinfachen. Die Low-Level-APIs (genannt TensorFlow Core) eignen sich jedoch zum Debuggen von Anwendungen und Experimentieren.

Wofür wird TensorFlow verwendet? Was können Sie mit TensorFlow tun?

TensorFlow wurde entwickelt, um den Prozess der Entwicklung und Ausführung fortschrittlicher Analyseanwendungen für Benutzer wie Data Scientists, Statistiker und prädiktive Modellierer zu rationalisieren.

Unternehmen verschiedenster Branchen und Größenordnungen nutzen das Framework in großem Umfang, um Prozesse zu automatisieren und neue Systeme zu entwickeln. Es eignet sich besonders für überaus umfangreiche parallele Verarbeitungsanwendungen wie neuronale Netze. Darüber hinaus wurde es im Rahmen von Experimenten und Tests mit selbstfahrenden Fahrzeugen eingesetzt.

Wie nicht anders zu erwarten, setzt die Muttergesellschaft Google TensorFlow auch für interne Zwecke ein, z. B. zur Optimierung des Informationsabrufs in der Suchmaschine oder für Anwendungen zur automatischen Generierung von E-Mail-Antworten, zur Bildklassifizierung sowie zur optischen Zeichenerkennung.

Einer der Vorteile von TensorFlow besteht darin, dass es Abstraktion bietet. Dies bedeutet, dass sich die Entwickler auf die Gesamtlogik der Anwendung konzentrieren können, während sich das Framework um die Feinheiten kümmert. Zudem eignet sich das Framework für Entwickler, die TensorFlow-Apps debuggen und genauer untersuchen müssen.

Die Visualisierungssuite TensorBoard verfügt über ein interaktives, webbasiertes Dashboard, mit dem Sie die Ausführung von Graphen überprüfen und entsprechende Profile erstellen können. Ferner bietet das Framework einen Eager-Execution-Modus, mit dem Sie jede Graphenoperation separat und transparent auswerten und ändern können. So müssen Sie nicht den gesamten Graphen als ein einziges undurchsichtiges Objekt erstellen und alles auf einmal auswerten.

In Databricks Runtime for Machine Learning sind TensorFlow und TensorBoard enthalten, sodass Sie diese Bibliotheken verwenden können, ohne weitere Pakete zu installieren.

Sehen wir uns nun an, wie Sie TensorFlow verwenden können.

So installieren Sie TensorFlow

Vollständige Anweisungen und Tutorials finden Sie auf tensorflow.org, im Folgenden möchten wir Ihnen jedoch einige Grundlagen erläutern.

Systemanforderungen:

  • Python 3.7+
  • pip 19.0 oder höher (erfordert die Unterstützung von manylinux2010, für TensorFlow 2 benötigen Sie eine neuere Version von pip)
  • Ubuntu 16.04 oder höher (64 Bit)
  • macOS 10.12.6 (Sierra) oder höher (64 Bit) (keine GPU-Unterstützung)
  • Windows 7 oder höher (64 Bit)

Hardware-Anforderungen:

  • Ab TensorFlow 1.6 verwenden die Binärdateien AVX-Anweisungen, die auf älteren CPUs möglicherweise nicht laufen.
  • GPU-Unterstützung erfordert eine CUDA®-fähige Karte (Ubuntu und Windows)

1. Installieren Sie die Python-Entwicklungsumgebung auf Ihrem System

Überprüfen Sie, ob Ihre Python-Umgebung bereits konfiguriert ist:

python3 - -version

pip3 - -version

Wenn diese Pakete bereits installiert sind, fahren Sie mit dem nächsten Schritt fort.

Wenn nicht, installieren Sie Python, den pip-Paketmanager und venv.

Wenn Sie nicht in einer virtuellen Umgebung arbeiten, verwenden Sie python3 -m pip für die nachfolgenden Befehle. So stellen Sie sicher, dass ein Upgrade durchgeführt wird und Sie das Python-pip anstelle des System-pips verwenden.

2. Erstellen Sie eine virtuelle Umgebung (empfohlen)

Mit virtuellen Python-Umgebungen können Sie die Installation des Pakets vom System isolieren.

3. Installieren Sie das pip-Paket von TensorFlow

Wählen Sie eines der folgenden TensorFlow-Pakete zur Installation von PyPI aus:

  • tensorflow: die neueste stabile Version mit CPU- und GPU-Unterstützung (Ubuntu und Windows)
  • tf-nightly: Preview-Build (instabil). Ubuntu und Windows bieten GPU-Unterstützung
  • tensorflow==1.15: die endgültige Version von TensorFlow 1.x.

Überprüfen Sie die Installation. Wenn ein Tensor angezeigt wird, haben Sie TensorFlow erfolgreich installiert.

Hinweis: Einige Installationsmechanismen erfordern die URL des TensorFlow Python-Pakets. Der hier anzugebende Wert hängt von Ihrer Python-Version ab.

So aktualisieren Sie TensorFlow

Der pip-Paketmanager bietet eine einfache Methode, um TensorFlow unabhängig von der Umgebung zu aktualisieren.

Voraussetzungen:

  • Python 3.6–3.9 muss installiert und konfiguriert sein (überprüfen Sie die Python-Version, ehe Sie beginnen).
  • TensorFlow 2 muss installiert sein.
  • Der pip-Paketmanager Version 19.0 oder höher (überprüfen Sie Ihre pip-Version und aktualisieren Sie sie gegebenenfalls).
  • Zugriff auf die Befehlszeile bzw. das Terminal- oder die Notebook-Umgebung.

So führen Sie ein Upgrade von TensorFlow auf eine neuere Version durch:

1. Öffnen Sie das Terminal (STRG+ALT+T).

2. Überprüfen Sie, welche Version von TensorFlow derzeit installiert ist:

pip3 show tensorflow

Mit diesem Befehl erhalten Sie Informationen über das Paket, einschließlich der Version.

3. Führen Sie ein Upgrade von TensorFlow auf eine neuere Version durch. Verwenden Sie dazu:

pip3 install - -upgrade tensorflow==<version>

Stellen Sie sicher, dass Sie eine Version auswählen, die mit Ihrer Python-Version kompatibel ist, da die Version sonst nicht installiert werden kann. Verwenden Sie für die Notebook-Umgebung den folgenden Befehl und starten Sie den Kernel anschließend neu:

!pip install - -upgrade tensorflow==<version>

Dadurch wird die alte Version zusammen mit den Abhängigkeiten automatisch entfernt und das aktuellere Upgrade installiert.

4. Überprüfen Sie die aktualisierte Version, indem Sie Folgendes ausführen:

pip3 show tensorflow

Was ist TensorFlow Lite?

Im Jahr 2017 hat Google eine neue Version von TensorFlow namens TensorFlow Lite eingeführt. TensorFlow Lite wurde für die Verwendung auf eingebetteten und mobilen Geräten optimiert. Es handelt sich um ein produktreifes und plattformübergreifendes Open-Source-Framework für Deep Learning, das ein vortrainiertes TensorFlow-Modell in ein spezielles Format konvertiert, das im Hinblick auf Geschwindigkeit oder Speicherplatz optimiert werden kann.

Um sicherzustellen, dass Sie die richtige Version für ein bestimmtes Szenario verwenden, müssen Sie wissen, wann Sie TensorFlow bzw. wann Sie TensorFlow Lite verwenden sollten. Wenn Sie beispielsweise ein leistungsstarkes Deep-Learning-Modell in einer Umgebung ohne gute Netzwerkverbindung einsetzen müssen, können Sie TensorFlow Lite verwenden, um die Dateigröße zu reduzieren.

Wenn Sie ein Modell für Edge-Geräte entwickeln, sollte es möglichst schlank sein, damit es nur wenig Speicherplatz benötigt und die Download-Geschwindigkeit in Netzwerken mit geringerer Bandbreite erhöht. Hierzu benötigen Sie eine Optimierung, um die Größe des Modells zu reduzieren bzw. die Latenz zu verbessern – was bei TensorFlow Lite durch Quantisierung und Gewichtsreduzierung gelingt.

Das Ergebnis sind Modelle, die so schlank sind, dass sie auf Edge-Geräten wie Android- oder iOS-Mobiltelefonen oder Linux-basierten Embedded-Geräten wie Raspberry Pis oder Mikrocontrollern mit niedriger Latenz eingesetzt werden können. TensorFlow Lite verwendet darüber hinaus mehrere Hardware-Beschleuniger für Geschwindigkeit, Genauigkeit und Optimierung des Stromverbrauchs, die für die Ausführung von Inferenzen am Rande des Systems unerlässlich sind.

Was versteht man unter einem „Dense Layer“ in TensorFlow?

Dense Layer werden sowohl bei der Erstellung von flachen als auch von tiefen neuronalen Netzen verwendet. Künstliche neuronale Netze sind gehirnähnliche Architekturen, die aus einem System von Neuronen bestehen. Sie sind in der Lage, durch Beispiele zu lernen, anstatt anhand bestimmter Regeln programmiert zu werden.

Beim Deep Learning werden mehrere Schichten verwendet, um aus dem rohen Input höherwertige Features zu extrahieren. Besteht ein Netz aus mehreren Schichten, bezeichnet man es als ein gestacktes neuronales Netz. Jede dieser Schichten besteht aus Knoten, die den Input aus den Daten mit einer Reihe von Koeffizienten kombinieren, die als Gewichtungen bezeichnet werden und den Input entweder verstärken oder abschwächen.

Für die Version 2.0 hat TensorFlow eine Deep-Learning-API namens Keras implementiert, die auf TensorFlow aufbaut und eine Reihe von vorgefertigten Schichten für verschiedene neuronale Netzarchitekturen und Zwecke bietet. Ein Dense Layer ist eine dieser Schichten – sie verfügt über eine tiefe Verbindung, was bedeutet, dass jedes Neuron Input von allen Neuronen der jeweils vorhergehenden Schicht erhält.

Dense Layer werden in der Regel für Änderungen von Dimensionen, Rotation, Skalierung und Translation der von ihnen generierten Vektoren verwendet. Sie sind in der Lage, Features aus allen kombinierten Features der vorhergehenden Schicht zu lernen.

Worin besteht der Unterschied zwischen TensorFlow und Python?

TensorFlow ist ein Open-Source-Framework für maschinelles Lernen, Python eine gängige Programmiersprache für Computer. Python ist eine der Sprachen, die in TensorFlow verwendet werden. Python ist die empfohlene Sprache für TensorFlow, obwohl es auch C++ und JavaScript verwendet.

Python wurde entwickelt, um Programmierer zu unterstützen, klaren, logischen Code für kleine und große Projekte zu erstellen. Es kommt häufig zum Einsatz, um Websites und Software zu erstellen, Aufgaben zu automatisieren und Datenanalysen durchzuführen. Auf diese Weise können Anfänger TensorFlow relativ einfach erlernen.

Eine sinnvolle Frage lautet: Welche Version von Python unterstützt TensorFlow? Einige Versionen von TensorFlow sind nur mit bestimmten Python-Versionen kompatibel. Für TensorFlow 2.0 benötigen Sie Python 3.7 bis 3.10. Überprüfen Sie daher unbedingt die Anforderungen, ehe Sie TensorFlow installieren.

Was sind PyTorch und TensorFlow?

TensorFlow ist nicht das einzige Framework für maschinelles Lernen auf dem Markt. Es gibt noch zahlreiche weitere Lösungen, die Ähnlichkeiten aufweisen und einen Großteil der gleichen Anforderungen abdecken. Ein Beispiel ist PyTorch. Worin besteht nun der eigentliche Unterschied zwischen TensorFlow und PyTorch?

Bei PyTorch und TensorFlow handelt es sich nur um zwei der Frameworks, die von Tech-Unternehmen für die Deep-Learning-Umgebung Python entwickelt wurden und die menschenähnlichen Computern bei der Lösung von Problemen in der realen Welt behilflich sind. Der grundlegende Unterschied zwischen PyTorch und TensorFlow besteht in der Art und Weise, wie sie Code ausführen. PyTorch ist stärker in die Sprache Python integriert.

Wie wir gesehen haben, bietet TensorFlow solide Visualisierungsfunktionen, produktionsreife Einsatzoptionen und Unterstützung für mobile Plattformen. PyTorch ist nicht so weit verbreitet, wird aber dennoch gern genutzt: Das Framework zeichnet sich durch seine Einfachheit und Benutzerfreundlichkeit sowie durch dynamische Berechnungsgraphen und effiziente Speichernutzung aus.

Ob TensorFlow oder Pytorch SHY die bessere Lösung ist, hängt ganz davon ab, was Sie erreichen wollen. Besteht Ihr Ziel darin, KI-basierte Produkte zu entwickeln, ist TensorFlow die richtige Wahl für Sie. PyTorch eignet sich dagegen eher für forschungsorientierte Entwickler. PyTorch ist gut geeignet, um Projekte in kurzer Zeit zum Laufen zu bringen. TensorFlow dagegen verfügt über stabilere Funktionen für größere Projekte und komplexere Workflows.

Unternehmen, die TensorFlow verwenden

Nach Angaben auf der Website von TensorFlow verwenden neben Google auch eine Reihe anderer namhafter Unternehmen das Framework. Hierzu gehören Airbnb, Coca-Cola, eBay, Intel, Qualcomm, SAP, Twitter, Uber, Snapchat-Entwickler Snap Inc. und das Sportberatungsunternehmen STATS LLC.

Die fünf besten Alternativen zu TensorFlow

1. DataRobot

DataRobot ist ein cloudbasiertes Framework für maschinelles Lernen, das Unternehmen dabei unterstützt, ihre Kompetenzen im Bereich Data Science auszubauen. Dies erfolgt durch den Einsatz von Machine-Learning-Modellen und die Erstellung fortschrittlicher KI-Anwendungen.

Mithilfe des Frameworks sind Sie in der Lage, wertvolle Open-Source-Modellierungstechniken wie R, Python, Spark, H2O, VW und XGBoost zu nutzen und zu optimieren. DataRobot automatisiert Vorhersageanalysen und unterstützt so Data Scientists und Analysten bei der Erstellung genauerer Vorhersagemodelle.

Es gibt eine Bibliothek mit den besten Features, Algorithmen und Parameterwerten für die Erstellung der einzelnen Modelle, die ständig erweitert wird. Mithilfe von automatischem Ensembling können Benutzer problemlos mehrere Algorithmen und vorgefertigte Prototypen für die Extraktion von Features und Datenaufbereitung suchen und kombinieren (ohne Versuch-und-Irrtum-Methode).

2. PyTorch

PyTorch wurde vom Facebook-Team entwickelt und 2017 auf GitHub.com als Open Source zur Verfügung gestellt. Wie bereits erwähnt, weist es einige Ähnlichkeiten mit TensorFlow auf, darunter hardwarebeschleunigte Komponenten und ein hochgradig interaktives Entwicklungsmodell für die Erstellung von Entwürfen nach Bedarf.

Darüber hinaus optimiert PyTorch die Performance, indem es die native Unterstützung für die asynchrone Ausführung von Python nutzt. Zu seinen Vorteilen gehören integrierte dynamische Graphen sowie eine deutlich aktivere Community im Vergleich zu der von TensorFlow.

PyTorch bietet jedoch kein Framework, um trainierte Modelle direkt online bereitzustellen, und für die Produktion wird ein API-Server benötigt. Außerdem ist für die Visualisierung ein Drittanbieter – Visdom – erforderlich, dessen Funktionsumfang relativ begrenzt ist.

3. Keras

Keras ist eine hochentwickelte Open-Source-Bibliothek für neuronale Netze, die benutzerfreundlich, modular und einfach zu erweitern ist. Keras ist in Python geschrieben und unterstützt mehrere Backend-Engines zur Berechnung neuronaler Netze – obgleich sein primäres (und standardmäßiges) Backend TensorFlow und sein wichtigster Unterstützer Google ist.

Die High-Level-API TensorFlow Keras haben wir bereits erwähnt, und Keras läuft auch auf Theano. Es verfügt über eine Reihe von eigenständigen Modulen, die Sie kombinieren können, darunter neuronale Schichten, Kostenfunktionen, Optimierer, Aktivierungsfunktionen sowie Schemata für die Initialisierung und Regularisierung.

Keras unterstützt ein breites Spektrum an Optionen für den Einsatz in der Produktion und bietet umfassende Unterstützung für verschiedene GPUs und verteiltes Training. Allerdings gibt es kaum Unterstützung aus der Community, und die Bibliothek wird in der Regel für kleine Datensätze verwendet.

4. MXNet

Apache MXNet ist ein Open-Source-Framework für Deep Learning, mit dem tiefe neuronale Netze definiert, trainiert und auf einer Vielzahl von Geräten eingesetzt werden können. Ihm wurde sogar eine große Ehre zu Teil, denn es wurde von Amazon als führendes Deep-Learning-Framework auf AWS übernommen.

Es kann nahezu linear über mehrere GPUs und mehrere Maschinen skaliert werden, wodurch ein schnelles Modelltraining möglich ist. Außerdem unterstützt es ein flexibles Programmiermodell, mit dem Benutzer symbolische und imperative Programmierung für maximale Effizienz und Produktivität kombinieren können.

MXNet unterstützt zudem mehrere Programmiersprachen-APIs, darunter Python, C++, Scala, R, JavaScript, Julia, Perl und Go (seine nativen APIs nicht jedoch nicht so aufgabenorientiert wie die APIs von TensorFlow).

5. CNTK

CNTK, auch bekannt als Microsoft Cognitive Toolkit, ist ein einheitliches Deep-Learning-Toolkit, das den Datenfluss als eine Reihe von Berechnungsschritten anhand einer Graphenstruktur beschreibt (genau wie TensorFlow, wobei es jedoch nicht so einfach zu erlernen bzw. anzuwenden ist).

Es konzentriert sich weitgehend auf die Erstellung von neuronalen Deep-Learning-Netzen und kann diese Aufgaben schnell bewältigen. Mit CNTK lassen sich beliebte Modelltypen wie vorwärtsgerichtete DNNs, Convolutional Neural Networks (CNNs) und rekurrente neuronale Netze (RNNs/LSTMs) problemlos realisieren und kombinieren.

CNTK bietet ein breites Spektrum an APIs (Python, C++, C#, Java) und kann als Bibliothek in Ihre Python-, C#- oder C++-Programme integriert werden. Alternativ kann CNTK über seine eigene Modellbeschreibungssprache (BrainScript) als eigenständiges Machine-Learning-Tool verwendet werden. Es unterstützt die Betriebssysteme 64-Bit-Linux oder 64-Bit-Windows.

Hinweis: Bei Version 2.7 handelt es sich um die letzte Version von CNTK. Die Entwicklung neuer Funktionen ist nicht geplant.

Benötige ich TensorFlow?

TensorFlow bietet zahlreiche Vorteile. Das Open-Source-Framework für maschinelles Lernen bietet ausgezeichnete Architekturunterstützung, die den einfachen Einsatz von Computing-Frameworks auf einer Vielzahl von Plattformen ermöglicht. Es profitiert von der Bekanntheit von Google, und mehrere große Namen verwenden TensorFlow, um Tasks im Bereich künstliche Intelligenz auszuführen.

Andererseits kommt es aufgrund von technischen Details bei der Implementierung von TensorFlow bei einigen Trainingsjobs zu Schwierigkeiten, wenn es darum geht, komplett deterministische Modelltrainingsergebnisse zu erzielen. Das Team erwägt jedoch weitere Optionen, um den Determinismus in einem Workflow besser zu steuern.

Der Einstieg gelingt einfach, insbesondere mit TensorFlow by Databricks, einer sofort einsatzbereiten Integration über Databricks Runtime for Machine Learning. Cluster können in Sekundenschnelle eingerichtet und ausgeführt werden. Außerdem profitieren Sie von einer Reihe von Low-Level- und High-Level-APIs.

Zusätzliche Ressourcen

Zurück zum Glossar