Titre : | Deep learning en action : la référence du praticien |
Auteurs : | Josh Patterson, Auteur ; Adam Gibson, Auteur |
Type de document : | Monographie imprimée |
Editeur : | Paris : First interactive, 2018 |
Autre Editeur : | O'Reilly |
ISBN/ISSN/EAN : | 978-2-412-03744-7 |
Format : | 1 vol. (XX-534 p.) / ill., couv. ill. / 23 cm |
Langues: | Français |
Langues originales: | Anglais |
Index. décimale : | 006.31 |
Résumé : |
Plongez au coeur du Deep Learning. Ce livre a été écrit pour tous ceux qui souhaitent s'initier au Deep Learning (apprentissage profond). Il est la suite logique du titre "Le Machine learning avec Python" paru en février 2018. Le Deep Learning est une technologie nouvelle qui évolue très rapidement. Ce livre en présente les bases principales de cette technologie. Au coeur de celle-ci on trouve les réseaux de neurones profonds, permettant de modéliser tous types de données et les réseaux de convolution, capables de traiter des images.
Et enfin, cette technologie de plus en plus utilisée dans les applications d'intelligence artificielle introduit le notion de Reinforcement Learning (apprentissage par renforcement) qui permet d'optimiser les prises de décision par exemple pour le fonctionnement d'un robot. |
Sommaire : |
P. ix. Préface
P. x. C'est qui, « le praticien » ? P. xi. Qui devrait lire ce livre ? P. xii. Conventions utilisées dans ce livre P. xiii. Utiliser les exemples de code P. xiv. Notes pratiques P. 1. 1. Quelques révisions sur l'apprentissage automatique P. 1. Des machines pour apprendre P. 9. Poser les bonnes questions P. 9. Apprentissage automatique et mathématiques : une histoire d'algèbre linéaire P. 24. Comment l'apprentissage automatique fonctionne-t-il ? P. 39. Évaluer les modèles P. 43. Progresser dans la compréhension de l'apprentissage automatique P. 45. 2. Fondements des réseaux de neurones et du deep learning P. 45. Les réseaux de neurones P. 61. Entraînement des réseaux de neurones P. 70. Fonctions d'activation P. 76. Fonctions de perte P. 83. Hyperparamètres P. 87. 3. Principes fondamentaux des réseaux profonds P. 87. Définir l'apprentissage profond P. 99. Principes communs dans les architectures des réseaux profonds P. 113. Fabriquer des briques de construction pour les réseaux profonds P. 125. 4. Architectures majeures des réseaux profonds P. 126. Réseaux préentraînés non supervisés P. 133. Réseaux de neurones convolutifs (CNN) P. 152. Réseaux de neurones récurrents P. 171. Réseaux de neurones récursifs P. 173. Résumé et discussion P. 177. 5. Construire des réseaux profonds P. 177. Faire correspondre problèmes et réseaux profonds P. 182. La suite d'outils DL4J P. 184. Concepts de base de l'API DL4J P. 186. Configuration de l'architecture de modèle P. 188. Modélisation de données CSV avec des réseaux de perceptrons multicouches P. 196. Modélisation d'images de chiffres manuscrits à l'aide de réseaux CNN P. 205. Modéliser des données séquentielles en utilisant des réseaux de neurones récurrents P. 221. Utiliser des auto-encodeurs pour la détection d'anomalies P. 229. Utiliser des auto-encodeurs variationnels pour reconstruire les chiffres MNIST P. 236. Applications du deep learning dans le traitement du langage naturel P. 253. 6. Optimiser les réseaux profonds P. 253. Concepts de base dans l'optimisation des réseaux profonds P. 256. Adapter données d'entrée et architectures réseau P. 259. Relation entre objectif du modèle et couches de sortie P. 263. Travailler avec le nombre de couches, le nombre de paramètres et la mémoire P. 269. Stratégies d'initialisation des poids P. 271. Initialisation orthogonale des poids dans les RNN P. 271. Utiliser les fonctions d'activation P. 274. Appliquer les fonctions de perte P. 276. Comprendre les taux d'apprentissage P. 281. Parcimonie et apprentissage P. 281. Appliquer des méthodes d'optimisation P. 284. Utiliser la parallélisation et les GPU pour accélérer l'entraînement P. 291. Contrôle des époques et taille de mini-lot P. 294. Comment utiliser la régularisation ? P. 299. Travailler avec des classes déséquilibrées P. 302. Traiter le problème du surapprentissage P. 304. Utiliser les statistiques réseau de l'interface utilisateur Tuning UI P. 313. 7. Optimiser des architectures de réseau profond spécifiques P. 313. Réseaux de neurones convolutifs (CNN) P. 327. Réseaux de neurones récurrents P. 336. Machines de Boltzmann restreintes P. 339. DBN P. 343. 8. Vectorisation P. 343. Introduction à la vectorisation dans l'apprentissage automatique P. 358. Utiliser DataVec pour ETL et la vectorisation P. 360. Vectoriser des données d'image P. 364. Vectorisation et données séquentielles P. 372. Texte et vectorisation P. 380. Travail avec des graphiques P. 383. 9. Utiliser le deep learning et DL4J sur Spark P. 383. Introduction à l'utilisation de DL4J avec Spark et Hadoop P. 389. Configurer et optimiser l'exécution de Spark P. 399. Configurer un modèle d'objet de projet Maven pour Spark et DL4J P. 406. Dépanner Spark et 4 P. 413. L'API DL4J et les meilleures pratiques pour Spark P. 414. Exemple de perceptron multicouche Spark P. 420. Générer du texte à la manière de Shakespeare avec Spark et un réseau LSTM P. 425. Modéliser MNIST avec un réseau de neurones convolutifs sur Spark P. 431. Annexe A. Mais c'est quoi, l'intelligence artificielle ? P. 432. L'histoire (du moins jusqu'ici) P. 440. Qu'est-ce qui provoque aujourd'hui l'intérêt pour l'IA ? P. 442. L'hiver arrive P. 443. Annexe B. RL4J et apprentissage par renforcement P. 443. Préliminaires P. 445. Différents paramètres P. 447. Q-Learning P. 461. Graphique, visualisation et Mean-Q P. 464. RL4J P. 466. Conclusion P. 467. Annexe C. Les 12 nombres de Jeff Dean P. 469. Annexe D. Réseaux de neurones et rétropropagation : une approche mathématique P. 471. La rétropropagation dans un perceptron multicouche P. 475. Annexe E. Utiliser l'API ND4J P. 476. Conception et utilisation de base P. 484. Créer des vecteurs d'entrée P. 486. Utiliser MLLibUtil P. 487. Faire des prédictions avec DL4J P. 491. Annexe F. Utiliser DataVec P. 492. Charger des données pour l'apprentissage automatique P. 494. Charger des données CSV pour les perceptrons multicouches P. 495. Charger des données d'image pour les réseaux de neurones convolutifs P. 497. Charger des données séquentielles pour les réseaux de neurones récurrents P. 498. Transformer des données avec DataVec (alias data wrangling) P. 503. Annexe G. Travailler avec DL4J depuis la source P. 503. Vérifier si Git est installé P. 503. Cloner les projets GitHub DL4J clés P. 504. Télécharger la source via un fichier Zip P. 504. Utiliser Maven pour construire le code source P. 505. Annexe H. Configurer des projets DL4J P. 505. Créer un nouveau projet DL4J P. 508. Configurer d'autres fichiers POM Maven P. 511. Annexe I. Configuration de GPU pour les projets DL4J P. 511. Passer des backends aux GPU P. 513. CUDA sur différentes plateformes P. 513. Surveiller les performances des GPU P. 515. Annexe J. Résoudre les problèmes d'installation de DL4J P. 515. Erreurs de mémoire lors de l'installation à partir de la source P. 516. Anciennes versions de Maven P. 516. Maven et variables PATH P. 516. Mauvaises versions du JDK P. 516. C++ et autres outils de développement P. 517. Windows et les chemins d'accès include P. 517. Surveiller les GPU P. 517. Utiliser JVisualVM P. 517. Travailler avec Clojure P. 518. OS X et support des nombres en virgule flottante P. 518. Bogue Fork/Join dans Java 7 P. 519. Précautions P. 519. Différentes plateformes P. 523. Index |
Disponibilité (5)
Cote | Support | Localisation | Statut |
---|---|---|---|
INF/728 | Livre | bibliothèque sciences exactes | Consultable |
INF/728 | Livre | bibliothèque sciences exactes | emprunté jusqu'au 19/09/2023 |
INF/728 | Livre | bibliothèque sciences exactes | Empruntable |
INF/728 | Livre | bibliothèque sciences exactes | Empruntable |
INF/728 | Livre | bibliothèque sciences exactes | Empruntable |
Les abonnés qui ont emprunté ce document ont également emprunté :
بنية المادة | حسين, عبد الرحيم |
Algèbre, théorie des groupes | Cortella, Anne |
الجبر | بن حبيب, بابا حامد |
التحليل | بن حبيب, بابا حامد |
بنية المادة | بوزيان, حسن |
Introduction au machine learning | Azencott, Chloé-Agathe |