What’s new 28/01/2019

News 1 : Mieux protéger les accès aux ressources de GCP
Pour toutes les personnes qui déploient GCP cette news était attendue depuis longtemps. Google
propose enfin un contrôle de ressources à l’utilisateur et non plus simplement au niveau
développeur. Le contrôle actuel de Google IAM security est assez basique, l’exemple ci dessous
va vous aider à comprendre :


Nous avons deux comptes ci dessus un compte brice qui est propriétaire du projet et qui a le droit
de tout faire, ici le droit est défini au niveau projet et le compte eto-application (compte de service)
auquel nous lui avons attribué des droits au niveau service.
Ensuite il faut aller au niveau des services comme bigQuery ou cloud storage qui permettent
D’aller donner des droits plus fins. Or cela n’est pas toujours possible en fonction du service,
 comme avec compute engine (VM) soit vous avez accès à toutes les VM soit à aucune. D’autres
services étaient encore moins bien lotis c’était le cas de app engine (l’hébergement d’application
web), cloud functions ou des containers (GKE) ne permettaient pas de gérer qui avait accès au
service ou non, les autorisations devaient être gérées dans les applications elles-mêmes ce qui
augmentait le temps de développement et qui demandait un vrai savoir faire. Cette partie cruciale
est souvent sous-estimée dans les projets, heureusement Google a concocté un identity-Aware
proxy permettant de sécuriser les services les moins bien lotis :
Comme le graphique ci dessus le montre cette nouvelle fonction permet de sécuriser des APIs aux
applications web en passant par les machines virtuelles.


Techniquement ce proxy fonctionne sur 3 éléments de base de GCP et la configuration du réseau
dans le projet. En tout premier lieu il ne faut plus exposer directement vos containers ou vos cloud
functions sur internet c’est la partie réseau qui fera cela pour vous. La partie réseau est vraiment
très importante en plus de sécuriser les solutions elle permet aussi de les rendre plus rapides en
faisant communiquer directement via un réseau interne deux composants GCP plutôt que d’utiliser
le réseau internet et ces multiples couches. Deuxième étapes définir des droits directement sur
App Engine, Compute engine et le load Balancer comme l’illustre l’image ci dessous :


De notre point de vue c’est une très bonne nouvelle qui est déjà disponible en allant dans Sécurité -
> Identity-Aware Proxy (IAP)

News 2 : Le savoir faire de Google commence enfin à être reconnu
Google vient d’annoncer qu’il venait de faire son apparition en tant que leader dans le quadrant
magique de Gartner de ce mois sur les solutions de gestion de la données et de son analyse.




Si on regarde un peu plus prêt le résultat on voit que Google est encore loin des leaders mais si on
cherche un peu à comprendre ce que ce quadrant représente on voit bien que Google a raison de
s’emballer. Regardons ce que la plupart des entreprises devant Google proposent on remarque qu’il
s’agit de sociétés bien implantées dans le décisionnel depuis 15 ans et qu’ils proposent la totalité de
la chaîne ETL, base de données, outil d’analyse, eco système avec de nombreux partenaires…
Google en comparaison n’a à proposer de mature que sa base de données bigQuery, ses autres
produits dataflow (ETL) et datastudio ne peuvent pas être aujourd’hui considérés comme
opérationnels, ils ont été recalés ou cantonnés à des tâches précises par tous les spécialistes
décisionnels que je connais. Vu que Google dans ce monde est encore jeune et que ces produits
s’améliorent avec le temps nous ne serions pas surpris de voir les places s’échanger dans quelques
temps.


Avoir cette position de leader avec qu’une seule base de données est quelque chose de
remarquable, il faut dire que cette base de données est vraiment exceptionnelle. Nous reviendrons
sur cette dernière que nous aimons beaucoup dans l’année.


News 3 : Simplification des chatbots
Google vient de sortir un framework pour simplifier le développement des chatbots, il indique pouvoir
simplifier le développement de ces assistants et de permettre de les développer 10 fois plus
rapidement et ceux qui se sont lancés dans ce genre d’aventure peuvent vous le dire cela n’est pas
un luxe. Cependant nous restons mesurés sur cette annonce, la plupart des projets de chatbots que
j’ai vus ont tous été un petit échec ou une petite réussite, entre le verre à moitié plein ou à moitié
vide choisissez votre camp. En effet ces projets sont extrêmement longs à faire parce qu’il faut
prévoir tout ce que l’utilisateur peut taper comme phrase et rentrer tous les synonymes. Si un
chatbot est fait trop vite on se retrouve vite devant un espèce de système d’exploitation avec des
commandes qu’il faut apprendre par coeur et une syntaxe à respecter à la lettre prêt. On peut bien
sûr faire une aide en ligne dans le chatbot pour qu’il explique ce qu’il sait faire et tient mais on dirait
que notre exemple de système d’exploitation est terriblement bien choisi.


En complément de cette news et pour tous ceux qui ne connaissent pas encore bien l’IA nous vous
encourageons à lire l’interview du co-créateur de Siri qui donne les limites de cette IA.


L’auteur est peut-être un peu excessif car il veut vendre son livre. Mais sa position est très proche
de la nôtre, et c’est un travail que nous sommes souvent amenés à réaliser, à savoir : démystifier le
machine learning. C’est un outil prometteur et qui peut amener de réels plus, à condition de l’utiliser
à bon escient.

Nous aimons bien faire l’analogie entre l'avènement de cette technologie et la révolution industrielle.
Les premières machines qui ont été développées répondaient à des problématiques simples et
fastidieuses, c’est la même chose. On pourra remplacer certaines tâches cognitives mais pas
toutes.

Commentaires

Posts les plus consultés de ce blog

Datalake comparaison - 10 Conclusion

Load Balancer

Data loss prevention API