Analytique de données > 4 risques liés à l’IA qui préoccupent le plus les RSI et comment les surmonter
Article
9 min

4 risques liés à l’IA qui préoccupent le plus les RSI et comment les surmonter

Alors que l’agenda de l’IA prend de l’ampleur au Canada, de plus en plus de responsables de la sécurité de l'information (RSI) sont préoccupés par l’adoption fructueuse de l’IA sans toutefois compromettre la sécurité. Dans ce blogue dirigé par des experts, apprenez-en davantage sur les quatre principaux risques liés à l’IA auxquels ils sont confrontés et sur la façon de les aborder.

Expert CDW Expert CDW
Contenu
  • L’adoption de l’IA continue d’augmenter au Canada

    Un rapport d’IBM a révélé que la proportion d’entreprises au Canada déployant l’IA est passée de 34 pour cent à 37 pour cent en 2023, signalant une adoption continue de l’IA.

  • 4 risques liés à l’IA qui préoccupent les plus les RSI

    Découvrez comment les responsables de la sécurité de l'information (RSI) peuvent aborder les risques liés à l’intégrité, à la confidentialité et à la sécurité des données, à la formation et à la surveillance, ainsi qu’aux talents qui œuvrent avec l’IA grâce aux conseils d’experts de KJ Burke, chef de la technologie sur le terrain – Technologies hybrides chez CDW Canada.

  • Services consultatifs en IA de CDW pour les responsables de la sécurité de l'information (RSI)

    Les services consultatifs de CDW en matière d’IA aident les RSI à élaborer une stratégie d’adoption sécuritaire de l’IA grâce à des experts internes, un vaste écosystème de partenaires et plus de 20 années d’expérience en transformation numérique au Canada.

Intelligence artificielle, technologie

Les organisations canadiennes ont de plus en plus adopté l’IA au cours de la dernière année. Un rapport d’IBM a révélé que la proportion d’entreprises au Canada déployant l’IA est passée de 34 pour cent à 37 pour cent en 2023, tandis que l’adoption est restée stable dans le reste du monde.

Notre étude 2024 canadienne sur la cybersécurité a également mis en évidence l’adoption croissante de l’IA pour les cas d’utilisation relatifs à la cybersécurité. Par exemple, 37,5 pour cent des organisations interrogées dans le secteur des services financiers ont signalé des mises en œuvre d’IA matures. 

De l’automatisation des processus manuels à l’autonomisation de la main-d’œuvre, les applications de l’IA promettent des résultats transformateurs pour les entreprises. Mais pour les RSI, l’adoption de l’IA n’est pas une décision insolite. Ils doivent assurer la préparation organisationnelle quant à la sécurité des données, la gestion du changement et l’atténuation des risques.

En fin de compte, l’adoption réussie de l’IA repose toujours sur la capacité d’une organisation à gérer et à éviter tout risque.  

Dans ce blogue, KJ Burke, directeur des technologies hybrides chez CDW Canada, met en lumière les quatre principaux risques liés à l’IA qui préoccupent le plus les responsables de la sécurité de l’information (RSI) et la façon dont ils peuvent se préparer à une transformation transparente de l’IA.

1. Risques liés à l’intégrité des données

/

Si les données sont de l’huile, les données organisées sont de l’essence.

– Selon M. Burke, il est important d’assurer la qualité et l’intégrité des données pour alimenter les applications de l’IA.

Les systèmes d’IA modernes, comme les modèles d’IA générative, ne doivent pas être entraînés à l’aide de données brutes. Ils ont besoin de jeux de données propres et bien contrôlés qui peuvent produire des résultats sans erreur.

Même une feuille de calcul Excel désuète ou une documentation d’utilisateur incompatible peuvent être considérées comme des données brutes dans le monde réel. Si vous construisez un robot conversationnel d’IA à l’aide de ces données, cela pourrait finir par donner de mauvais conseils à vos clients. Cela peut avoir un effet négatif sur la confiance des clients, entraîner une perte de clientèle et potentiellement réduire l’investissement qui a été consacré à la création du robot conversationnel.

C’est parce qu’un modèle d’IA ne sait rien de lui-même – il apprend à partir des connaissances que vous lui fournissez. Si les connaissances ne sont pas fiables, l’IA fera probablement des erreurs.    

L’identification de vos données qui se compare à de l’essence

Alors, comment pouvez-vous identifier le moment où un jeu de données manque d’intégrité? Recherchez les trois principes d’intégrité des données :

  • Exactitude – Les données représentent-elles correctement ce à quoi elles sont destinées? Les rapports de vente dont les chiffres sont erronés sont un exemple d’inexactitude des données.
  • Complétude – Avez-vous autant de données que nécessaire pour former le modèle? Les lignes manquantes dans une feuille de calcul Excel représentent des données incomplètes.
  • Qualité – Les données sont-elles exemptes de divergences et de préjugés? Des ensembles de données déformés qui peuvent être exacts, mais qui contiennent des préjugés démographiques ou raciaux en sont un exemple.

Comment assurer l’intégrité des données

Il y a de fortes chances que votre organisation ait déjà beaucoup de données brutes qui ne conviennent pas aux modèles d’IA. Mais en effectuant des vérifications d’intégrité, vous pouvez apporter des données propres à la table. Voici comment :

  • Rechercher l’erreur humaine – Élaborer un processus évolutif qui vérifie et supprime toute erreur humaine des données.
  • Étudier les sources de données et les mécanismes de collecte – Vérifier d’où proviennent les données de votre organisation, ainsi que le mécanisme de stockage et de traitement des données.
  • Éduquer les employés sur l’intégrité des données – Créer une culture d’intégrité des données dans votre organisation en informant les employés sur l’importance de préserver les données.

En vous concentrant sur l’intégrité des données dès le départ, vous pouvez vous assurer que votre projet pilote d’IA ne diverge pas des attentes. Cela constitue une base solide pour réduire tout risque imposé à votre investissement en IA, peu importe le cas d’utilisation.

2. Risques liés à la confidentialité et à la sécurité des données

Les outils d’IA sont devenus largement accessibles, ce qui signifie que n’importe qui peut maintenant lancer un modèle d’IA sans supervision. Cela représente une préoccupation critique en matière de confidentialité et de sécurité des données sensibles des organisations.

Vous pouvez aborder ce risque en répondant à trois questions :

  • Où vos données sont-elles stockées?
  • Qui a accès à vos données?
  • Dans quelle mesure protégez-vous vos données?

Prenons l’exemple de la mise en œuvre par Apple des services OpenAI dans leur plus récente version d’iOS 18. Siri, l’assistant intelligent d’iOS, peut accéder à ChatGPT si vous lui posez une question complexe, mais l’arrière-plan de ChatGPT n’est pas autorisé à stocker vos données.

En même temps, l’adresse IP de l’appareil demandant la réponse est également masquée. Cela garantit que même si les utilisateurs peuvent bénéficier d’un système d’IA tiers, leur exposition au risque est minimale.

Quatre piliers clés du risque dans une organisation

M. Burke a également une façon nuancée de considérer les quatre piliers clés des risques liés à la sécurité des données et à la confidentialité.

/

Chacun de ces intervenants est celui que nous essayons de servir, mais ils représentent également un exemple du profil de risque pour les outils d’IA.

/
  • Collègue – Le risque est contenu dans les outils et les données auxquels un collègue peut accéder et est limité par sa nature.
  • Équipe – Le risque s’étend maintenant aux données collectives d’une équipe, ce qui nécessite un ensemble actif d’autorisations, de contrôles et de confidentialité. Un modèle d’IA peut exposer des données destinées uniquement à des utilisateurs sélectionnés.
  • Organisation – Au niveau organisationnel, il ne s’agit pas seulement d’une équipe, mais de l’ensemble de l’écosystème des utilisateurs qui interagissent avec l’IA. Toutes les données hébergées au dans l’organisation, comme les données SharePoint ou OneDrive, pourraient potentiellement se retrouver entre de mauvaises mains.
  • Plateformes – L’IA en contact avec la clientèle qui utilise les données organisationnelles pour résoudre les problèmes des clients représente directement un risque pour la réputation de l’organisation.

Commencer petit, avec un cas d’utilisation de l’IA à faible risque

M. Burke recommande aux organisations de commencer par un cas d’utilisation à faible risque pour leur projet pilote d’IA et d’aller de l’avant à partir de là. « En ce qui a trait aux systèmes d’IA, il est préférable de mettre en œuvre quelque chose de très simple, ensuite d’innover et de faire quelque chose de plus complexe. »

Cela permet aux organisations de réduire le risque et de comprendre les implications à un stade où l’enjeu est faible. Les leçons apprises durant cette étape peuvent aider à réduire le risque lié aux initiatives à plus grande échelle qui auront lieu dans le futur.

3. Risques liés à la formation et à la surveillance des modèles

Un modèle d’IA, comme GPT4o ou PaLM2, est construit à l’aide de techniques spécialisées qui peuvent répondre à certaines exigences. Ces modèles d’IA génératifs peuvent effectuer une variété de tâches comme la synthèse, la génération de contenu, le raisonnement, etc.

Si vous souhaitez construire un modèle similaire qui est propre à votre organisation, plusieurs risques entrent en jeu :

  • Saisie incorrecte des données – Le modèle est incapable de saisir correctement les données d’entraînement, ce qui induit des problèmes de performance.
  • Surapprentissage – Le modèle peut bien fonctionner sur les données d'entraînement, mais ne peut pas produire les mêmes résultats sur les nouvelles données.
  • Coûts informatiques – Les modèles personnalisés nécessitent une charge massive de ressources informatiques, ce qui représente des risques de coûts.
  • Sécurité du modèle – Les cyberattaques et la corruption des données dans le modèle peuvent entraîner des résultats nocifs lorsqu’il est déployé.
  • Évolutivité – L’entraînement doit tenir compte de l’évolutivité future, sinon le modèle deviendra redondant.

Entraîner ou non

Les risques associés à l'entraînement des modèles sont en grande partie valables pour les organisations qui doivent entraîner leurs propres modèles. Dans de nombreux cas, cela peut même ne pas être nécessaire.

L’entraînement de votre propre modèle dépend de la complexité et des besoins de votre cas d’utilisation de l’IA. Si vous construisez quelque chose de simple, il existe d’autres méthodes disponibles pour obtenir les mêmes résultats.

Méthode

Quand établir les priorités

Risques impliqués

Construire votre propre modèle

– Lorsqu’une solution hautement spécifique est nécessaire et qu’elle ne peut pas être satisfaite par les modèles existants.

– Lorsque vous traitez des données exclusives ou hautement spécialisées.

– Problèmes de qualité des données

– Surapprentissage et sous-apprentissage

– Consommation de ressources

– Risques pour la sécurité

Utiliser un modèle de base préentraîné

– Pour un déploiement rapide des capacités de l’IA.

– Lorsque l’organisation manque d’expertise approfondie en IA.

Mise au point d’un modèle

– Lorsqu’une solution spécifique à une tâche est nécessaire, mais que les ressources sont limitées.

– Pour améliorer la performance des jeux de données spécialisés.

Utilisation de la GAIC (génération augmentée d'information contextuelle)

 

– Lorsque vous générez du contenu qui nécessite une grande précision et une grande fiabilité.

– Pour les applications nécessitant des informations externes à jour ou spécifiques.

– Complexité de l’intégration

– Dépendance à l’égard des sources d’information externes

Utilisation d’une solution tierce

– Pour les applications non essentielles où un déploiement rapide est crucial.

– Lorsque l’IA est nécessaire pour des tâches de base comme la reconnaissance optique de caractères (ROC), l’analyse des sentiments, etc.

– Problèmes de confidentialité des données

– Dépendance envers les fournisseurs

– Personnalisation limitée

M. Burke recommande d’identifier la méthode qui convient le mieux à votre organisation pour éviter de faire face à des risques supplémentaires. Les méthodes qui impliquent la formation, l’utilisation et l’ajustement des modèles ont généralement un profil de risque complexe.

Pour des cas d’utilisation plus simples, vous pouvez choisir une méthode de développement plus facile qui comporte moins de risques et qui correspond mieux à vos objectifs. 

4. Risques liés au talent et aux compétences en IA

Bien que l’IA se soit davantage imposée dans la main-d’œuvre ces derniers temps, le marché du travail n’a pas nécessairement su répondre à la demande de compétences liées à l’IA. Ainsi, les organisations qui ciblent l’adoption de l’IA dans un avenir proche peuvent faire face à des défis d’embauche.

Un autre point de préoccupation est que les nouvelles technologies de l’IA inondent le marché, ce qui rend difficile pour les professionnels de l’IA même expérimentés de suivre le rythme des derniers outils offerts dans l’espace.

En plus de trouver de nouveaux talents, le perfectionnement des compétences des employés existants peut également constituer un risque. Les employés peuvent avoir besoin d’une formation et d’une sensibilisation approfondies sur la façon d’utiliser les systèmes d’IA en toute sécurité avant qu’une adoption à l’échelle de l’organisation puisse être planifiée.

Ne pas répondre aux risques ci-dessus peut entraîner des problèmes d’implémentation de l’IA dans l’organisation.

Développer les compétences internes en collaborant avec des experts en IA

C’est là que le partenariat avec un fournisseur de solutions établi comme CDW peut vous aider à déployer vos projets de l’IA.

Nous nous assurons que vous avez accès à des experts chevronnés en IA qui peuvent vous guider sur les bonnes mises en application de l’IA pour votre entreprise ou obtenir l’infrastructure nécessaire pour construire vos solutions de l’IA.

Nos compétences en IA couvrent de nombreux secteurs et domaines, couvrant des cas d’utilisation majeurs de l’IA comme les robots conversationnels de l’IA, l’informatique haute performance, l’IA générative, etc. En plus des solutions pour les entreprises, nous desservons également les entités gouvernementales et les entreprises en démarrage qui veulent maximiser leur efficacité commerciale grâce à l’IA.

Services consultatifs d’IA de CDW pour les responsables de la sécurité de l'information (RSI)

CDW Canada possède plus de 20 années d’expérience dans la transformation des organisations canadiennes. Nous apportons une expertise nationale dans les entreprises, le gouvernement, l’éducation et les soins de santé afin d’aider les organisations à tirer le meilleur parti de leurs investissements dans l’IA.

Notre vaste écosystème de partenaires nous permet de fournir des ateliers sur la technologie sous-jacente, les meilleurs talents et le leadership pour mettre vos projets d’IA sur le terrain.

Que vous cherchiez des conseils sur les premières étapes menant à votre projet pilote d’IA ou que vous ayez besoin de conseils sur l’adoption sécuritaire de l’IA, nos experts peuvent vous aider à atteindre les objectifs de transformation numérique de votre organisation.

Nos compétences en IA comprennent un large éventail d’applications de l’IA au Canada, notamment les suivantes :

  • L’IA générative
  • Calcul de haute performance (CHP)
  • Robots conversationnels et grand modèle de langage (GML)
  • Modernisation de centre d'appels
  • Analyse prédictive
  • Préparation et gouvernance des données

De la découverte du cas d’utilisation au développement de la preuve de concept, en passant par l’adoption de votre solution à la production, nous facilitons l’ensemble du cycle de vie de l’IA pour renforcer la capacité de votre organisation à atténuer les risques.