23 Mai 2017 - dépannage, maintenance, suppression de virus et formation informatique sur Paris

Google crée une nouvelle division spécialisée dans l’intelligence artificielle.

Photo Frédéric Hourdeau

News

le 23/05/2017 à 23h00

L’intelligence artificielle est depuis quelques années le lieu où s’affrontent commercialement des plus grands de la high-tech. Google n’est pas le dernier en la matière avec de nouvelles applications.


Durant la conférence de lancement de Google I/O, Sundar Pichai, le patron de Google a annoncé le lancement d’une nouvelle division dédiée spécifiquement à la recherche sur l’intelligence artificielle et le deep learning, ainsi que sur le développement d’outils permettant d’en tirer parti.

Cette nouvelle division dispose d’un site dédié à l’IA, Google.ai, qui donne les grands axes des travaux des chercheurs dans ce domaine.

Pour accélérer le développement et la recherche, Google propose d’utiliser le TPU (Tenor Processing Unit) que l’entreprise exploite pour entraîner ses propres modèles d’apprentissage automatique (1).

Les TPU sont disponibles au sein de la plateforme Google Cloud.

« Nous voulons que des centaines de milliers de développeurs utilisent le machine learning », souligne Sundar Pichai.

Google va utiliser les réseaux neuronaux qu’il crée pour bâtir d’autres réseaux neuronaux indique le CEO. Les premiers résultats sont prometteurs, a-t-il aussi assuré.

Le moteur de recherche ne sera pas le seul à profiter de cette technologie.

L’utilisation par la recherche médicale

La recherche médicale pourra en effet aussi l’utiliser, afin d’aider au séquençage de l’ADN par exemple, ou pour étudier la propagation du cancer, les spécialistes de la santé pouvant s’en servir pour améliorer leurs diagnostics.

(1) Google et le TPU, son composant spécial Machine Learning

 

Le Tensor Processing Unit de Google se veut jusqu’à 30 fois plus rapide que des CPU  (processeurs) et GPU  (processeur graphique) dans le cadre de tâches de Machine Learning.

Pour Google le TPU est un module hardware dédié spécifiquement aux applications de Machine Learning : cette solution était en production dans ses datacenters depuis 2015.

Ce composant est  15 à 30 fois plus rapide pour des tâches de Machine Learning que des CPU Intel Haswell ou des GPU Nvidia K80. Le rapport performance par watt des TPU se veut également de 25 à 80 fois meilleur que celui des CPU et GPU.

Ce composant est un ASIC, un composant dédié à une tâche donnée.

Dans ce domaine, les FPGA  sont la voie  choisie par Microsoft pour accélérer les travaux de Machine Learning dans ses datacenters.

Google explique avoir été contraint de créer cette offre pour répondre au défi de la montée en puissance des applications mettant en œuvre du Machine Learning.

Le TPU permet de réduire fortement ses besoins en infrastructures.


barre-dépannage, installation, maintenance et formation informatique Paris à domicile


Surface Pro : La dernière version de l'ordinateur bientôt mise à jour ! - News - publié le 22/05/2017


Microsoft a retardé jusqu’au le 23 mai prochain la présentation de la dernière version du Surface Pro (1). Mais, déjà l’on peut découvrir l'ordinateur/tablette sur le net.

Photographie du marché de la téléphonie mobile en France au 1er trimestre 2017 par l’ARCEP. - News - publié le 22/05/2017


Sur le marché français de la téléphonie mobile, les abonnés privilégient les forfaits sans engagement ; ce comportement a eu pour effet de faire baisser les prix.