Arnaud Bacros, General Manager Belgium and Luxembourg, Dell Technologies : «Les entreprises sont en quête d’agilité et de flexibilité»

Les données sont présentées comme l’or noir du XXIe siècle. Pourtant, un grand nombre d’entreprises luxembourgeoises ne leur accordent pas encore l’importance qu’elles méritent et ont des difficultés pour les gérer et les analyser. Pour ITOne.lu, Arnaud Bacros, General Manager Belgium and Luxembourg, Dell Technologies, revient sur ce phénomène et les solutions pour y remédier.

Selon une une enquête récente de Forrester et Dell Technologies, les entreprises luxembourgeoises collectent de plus en plus de données. Mais au lieu d’être un atout, ces données seraient en réalité un fardeau. Pourriez-vous nous éclairer sur ce paradoxe ?

Arnaud Bacros : On constate trois paradoxes. Tout d’abord, les entreprises deviennent d’office data driven et se rendent compte de l’importance des données et de leur gestion. Pourtant, il y a assez peu d’organisations qui traitent les données comme du capital.

Ensuite, le business demande au département IT de collecter de plus en plus de données. Il y a une conscientisation du fait que la donnée peut générer de nouvelles sources de revenus au sein de l’entreprise mais dans le même temps, les entreprises ne sont pas capables de traiter toutes les données déjà emmagasinées.

Enfin, le dernier paradoxe concerne le modèle «as-a-service». Il y a un consensus sur son utilité mais on observe un blocage dans son adoption.

Toujours selon l’étude, 58% des entreprises luxembourgeoises indiquent qu’elles collectent des données plus rapidement qu’elles ne peuvent les analyser et les exploiter. 70% affirment qu’elles ont constamment besoin de plus de données, mais leurs capacités actuelles ne sont pas en mesure de les traiter. Quelles sont les obstacles auxquels doivent faire face les entreprises?

A. B. :La première barrière est la complexité de l’environnement. On constate un manque de connaissances ou de compétences par rapport à la problématique d’un data warehouse et sa gestion. A-t-on besoin d’un data lake? Doit-on conserver toutes les données au même endroit? C’est complexe. Il y a des données qui sont créées au niveau du data centre, d’autres dans le public cloud ou encore dans le edge maintenant. La question c’est comment faire pour consolider ces données, pour les analyser en temps réel alors qu’elles ne sont pas stockées aux mêmes endroits.

Une autre barrière reste le coût du stockage des données avec des organisations qui travaillent exclusivement on-premise et qui n’ont pas encore réalisé la transition vers le cloud. On observe un manque de capacités technologiques et techniques du traitement de ces données.

Une dernière barrière est le déficit d’automatisation. Beaucoup d’entreprises ont encore un fonctionnement trop «manuel» du traitement des données.

Quelles sont les solutions pour relever ces défis ?

A. B. :L’un des enjeux est de pouvoir moderniser son infrastructure et d’évoluer vers une out dating infrastructure, d’avoir une plateforme qui va permettre d’ingérer les données, de les analyser. Une plateforme qui serait commune au edge, au cloud et au data centre. Cette infrastructure va permettre de mettre en place des process beaucoup plus transparents, orientés vers l’intelligence artificielle (IA), vers le machine learning (ML) qui vont permettre d’accélérer certains process d’analyse de données. Certaines entreprises gardent toutes les données sans savoir vraiment lesquelles sont pertinentes et avec la peur de se séparer de données qui pourraient avoir de la valeur. L’IA et le ML offrent la possibilité de développer des modèles qui vont permettre aux entreprises de savoir quel type de données est critique et quel type ne l’est pas, de créer des process beaucoup plus simples, plus automatisés.

On voit, avec la mise en place de Chief Data Officer ou Chief Digital Officer (CDO), que ces fonctions sont occupées par des gens qui ont une bonne compréhension du business et de l’IT en général. Ces CDO vont être capables d’implémenter ces modèles basés sur l’IA ou le ML pour aider l’entreprise à évoluer dans ces environnements a priori complexes.

La crise de la Covid a-t-elle accéléré cette modernisation?

A. B. :La pandémie a clairement accéléré la digitalisation des entreprises. Il y a une prise de conscience du fait qu’il est possible d’avoir beaucoup plus d’agilité et de flexibilité si on a une partie des données dans le cloud et une partie on-premise. On a par exemple travaillé avec un fabricant de voiture sur les tests de sécurité. Pour ces crash tests, un grand nombre d’acteurs sont impliqués : des sociétés extérieures, des sous-traitants qui, pour certains, ont toutes leurs données dans le public cloud, d’autres dans leur data centre, d’autres ont des sites éparpillés partout dans le monde. On a donc créé pour ce client une plateforme dans le cloud qui permettait une consolidation et un traitement des données vers un point central.

Vous avez mentionné un blocage dans l’adoption du «as-a-service». Pourriez-vous nous en dire plus?

A. B. :Un vrai shift est actuellement en cours vers le «as-a-service». Les gens se rendent compte qu’ils ne peuvent plus tout faire eux-mêmes et qu’il y a certaines compétences dans le marché qui sont consolidées chez certains fournisseurs. Il y a une externalisation des process vers des public cloud providers ou des sociétés qui font du SaaS. La consommation de l’informatique, de la donnée ou des services est en train de changer complètement. Il fut un temps où il y avait une réticence à partager sa donnée avec un acteur externe mais aujourd’hui il y a un manque de compétences en interne, sans oublier le manque de personnel.

Des public cloud providers proposent des solutions toutes faites avec des services d’analyse de données qui permettent de réagir en temps réel sur certains feedbacks. Les entreprises sont clairement en quête d’agilité et de flexibilité.

Ce shift se traduit-il dans ce que Dell Technologies propose à ses clients ?

A. B. : Nous soutenons nos clients dans la modernisation de l’infrastructure pour être prêt à mettre en place des processus d’IA et de ML. Nous les aidons à se diriger vers un environnement hybride et multi cloud qui donne accès à des solutions proposées par des public cloud providers qui vont pouvoir leur offrir des services d’analytics.

Avec ce shift vers le as-a-service, on a aussi modernisé notre offre et on travaille de plus en plus as-a-service avec nos clients, ils peuvent payer à la consommation et non plus acheter massivement pour utiliser très peu à court terme et peut-être beaucoup plus à long terme.

La manière de consommer est désormais plus granulaire, plus modulaire sur le stockage, le back-up, les environnements serveurs et même sur le PC. Nous avons par exemple une offre PC as-a-service. Le cloud a poussé cette logique à l’extrême puisque le cloud est d’office du on-demand.

Quelles sont selon vous les grandes tendances des années à venir?

A. B. :J’en citerai deux. Premièrement, l’edge computing. Les clients souhaitent pouvoir se rapprocher de leur centre edge, avec des technologies qui vont, couplées à la 5G, parvenir à traiter des données, à les analyser, à les envoyer beaucoup plus rapidement que ce que l’on peut faire aujourd’hui.

La deuxième grande tendance est la sécurité. La digitalisation entraîne un volume de données toujours plus important à traiter. Automatiquement, plus de données signifie plus de risques et donc plus de besoins en sécurité.  En fonction de la complexité de votre environnement, de l’intérêt des hackeurs pour vos données, il est primordial de posséder des vrais spécialistes de la sécurité dans votre équipe. L’accent doit avant tout être mis sur le ricovery plus que sur la protection pure. Les hackeurs ont toutes les chances de parvenir à entrer dans votre périmètre de données, le but est donc d’éviter une rançon et le blocage du business et de pouvoir redémarrer le plus vite possible.