10 meilleurs outils d'intelligence artificielle open source pour Linux

10 meilleurs outils d'intelligence artificielle open source pour Linux

Dans cet article, nous couvrirons quelques-uns des haut niveau de l'intelligence artificielle open source (IA) outils pour l'écosystème Linux. Actuellement, IA est l'un des domaines en constante évolution de la science et de la technologie, avec un objectif majeur destiné à la construction de logiciels et de matériel pour résoudre les défis de la vie de tous les jours dans des domaines tels que les soins de santé, l'éducation, la sécurité, la fabrication, les services bancaires et bien plus encore.

Lire suggérée: 20 logiciels open source gratuits que j'ai trouvés en 2015

Vous trouverez ci-dessous une liste d'un certain nombre de plateformes conçues et développées pour soutenir l'IA, que vous pouvez utiliser sur Linux et éventuellement de nombreux autres systèmes d'exploitation. N'oubliez pas que cette liste n'est organisée dans aucun ordre d'intérêt spécifique.

1. Deep Learning for Java (DeepLearning4J)

Deeplearning4j est une note commerciale, open-source, fiche et jeu, bibliothèque d'apprentissage profond distribué pour les langages de programmation Java et Scala. Il est conçu spécifiquement pour l'application liée à l'entreprise et intégré à Hadoop et Étincelle en plus des processeurs distribués et des GPU.

DL4J est libéré sous l'Apache 2.0 Licence et fournit une prise en charge du GPU pour la mise à l'échelle sur AWS et est adaptée à l'architecture micro-service.

DeepLearning4j - Deep Learning for Java

Visitez la page d'accueil: http: // deeplearning4j.org /

2. Cafe - Framework d'apprentissage en profondeur

Caffe est un cadre modulaire et expressif d'apprentissage en profondeur basé sur la vitesse. Il est publié sous la licence BSD 2 CLAUSE, et il soutient déjà plusieurs projets communautaires dans des domaines tels que la recherche, les prototypes de démarrage, les applications industrielles dans des domaines tels que la vision, la parole et le multimédia.

Cafe - Framework d'apprentissage en profondeur

Visitez la page d'accueil: http: // caffe.Berkeleyvision.org /

3. H20 - Cadre d'apprentissage automatique distribué

H20 est un cadre d'apprentissage automatique open-source, rapide, évolutif et distribué, plus l'assortiment d'algorithmes équipés sur le cadre. Il prend en charge une application plus intelligente telle que l'apprentissage en profondeur, le renforcement du gradient, les forêts aléatoires, la modélisation linéaire généralisée (I.e régression logistique, filet élastique) et bien d'autres.

Il s'agit d'un outil d'intelligence artificielle axée sur les entreprises pour la prise de décision à partir de données, il permet aux utilisateurs de tirer des informations à partir de leurs données en utilisant une modélisation prédictive plus rapide et meilleure.

H2O - Cadre d'apprentissage automatique distribué

Visitez la page d'accueil: http: // www.H2O.ai /

4. MLIB - bibliothèque d'apprentissage automatique

Mllib est une bibliothèque d'apprentissage automatique open-source, facile à utiliser et haute performance développée dans le cadre d'Apache Spark. Il est essentiellement facile de déployer et peut fonctionner sur les grappes et données Hadoop existantes.

Lire suggérée: 12 meilleurs éditeurs de texte open source (GUI + CLI) que j'ai trouvés en 2015

MLIB est également expédié avec une collection d'algorithmes pour la classification, la régression, la recommandation, le clustering, l'analyse de survie et bien plus encore. Surtout, il peut être utilisé dans les langages de programmation Python, Java, Scala et R.

MLIB - bibliothèque d'apprentissage automatique

Visitez la page d'accueil: https: // spark.apache.org / mllib /

5. Apache Mahout

Cornac est un cadre open source conçu pour construire des applications d'apprentissage automatique évolutives, il dispose de trois fonctionnalités importantes énumérées ci-dessous:

  1. Fournit une programmation simple et extensible au travail
  2. Offre une variété d'algorithmes préemballés pour Scala + Apache Spark, H20 ainsi qu'Apache Flink
  3. Comprend Samaras, un lieu de travail Vector Math Experimation avec une syntaxe de R
Apache Mahout

Visitez la page d'accueil: http: // mahout.apache.org /

6. Bibliothèque de réseaux de neurones ouverts (OpenNN)

Openn est également une bibliothèque de classe open source écrite en C ++ pour l'apprentissage en profondeur, il est utilisé pour provoquer des réseaux de neurones. Cependant, il n'est optimal que pour les programmeurs C ++ expérimentés et les personnes ayant d'énormes compétences d'apprentissage automatique. Il se caractérise d'une architecture profonde et de haute performance.

OpenNN - Bibliothèque de réseaux de neurones ouverts

Visitez la page d'accueil: http: // www.openn.filet/

7. Oryx 2

Oryx 2 est une continuation du projet ORYX initial, il est développé sur Apache Spark et Apache Kafka en tant que ré-architecting de l'architecture lambda, bien que dédiée à la réalisation de l'apprentissage automatique en temps réel.

Il s'agit d'une plate-forme pour le développement des applications et expédie avec certaines applications également à des fins de filtrage, de classification, de régression et de clustering collaboratives.

ORYX2 - Ré-architecting Lambda Architecture

Visitez la page d'accueil: http: // oryx.io /

8. Opencec

Opencec est un portail open source vers le moteur de raisonnement général et le moteur de raisonnement de bon sens le plus grand et le plus complet du monde. Il comprend un grand nombre de termes CYC organisés en une onologie avec précision pour une application dans des domaines tels que:

  1. Modélisation du domaine riche
  2. Systèmes d'experts spécifiques au domaine
  3. Compréhension du texte
  4. L'intégration des données sémantiques ainsi que les jeux IA plus beaucoup d'autres.
Opencec

Visitez la page d'accueil: http: // www.cyc.com / plate-forme / opencyc /

9. Apache systemml

Systemml est une plate-forme d'intelligence artificielle open source pour l'apprentissage automatique idéal pour les mégadonnées. Ses principales caractéristiques sont - s'exécute sur R et la syntaxe de type Python, axée sur les mégadonnées et conçue spécifiquement pour les mathématiques de haut niveau. Comment cela fonctionne est bien expliqué sur la page d'accueil, y compris une démonstration vidéo pour une illustration claire.

Lire suggérée: 18 meilleures IDE pour la programmation C / C ++ ou les éditeurs de code source sur Linux

Il existe plusieurs façons de l'utiliser, notamment Apache Spark, Apache Hadoop, Jupyter et Apache Zeppelin. Certains de ses cas d'utilisation notables comprennent les automobiles, le trafic aéroportuaire et les services bancaires sociaux.

Apache SystemML - Plateforme d'apprentissage automatique

Visitez la page d'accueil: http: // systemml.apache.org /

dix. Nupic

Nupic est un cadre open source pour l'apprentissage automatique qui est basé sur la mémoire temporaire héritarchique (HTM), une théorie du néocortex. Le programme HTM intégré dans NuPIC est mis en œuvre pour l'analyse.

Ses fonctionnalités notables incluent:

  1. Apprentissage en ligne continu
  2. Modèles temporels et spatiaux
  3. Données de streaming en temps réel
  4. Prédiction et modélisation
  5. Détection d'anomalies puissante
  6. Mémoire temporelle hiérarchique
Intelligence de la machine nupique

Visitez la page d'accueil: http: // numenta.org /

Avec la montée et les recherches en constante avance en IA, Nous sommes obligé de voir plus d'outils à naître pour faire de ce domaine de technologie un succès, en particulier pour résoudre les défis scientifiques quotidiens ainsi que des fins éducatives.

Êtes-vous intéressé par l'IA, qu'est-ce que vous dites? Offrez-nous vos pensées, vos suggestions ou tout commentaire productif sur le sujet via la section des commentaires ci-dessous et nous serons ravis d'en savoir plus sur votre.