Home technologie Construire et sécuriser une infrastructure d’IA gouvernée pour l’avenir

Construire et sécuriser une infrastructure d’IA gouvernée pour l’avenir

65
0

Rejoignez nos newsletters quotidiennes et hebdomadaires pour les dernières mises à jour et du contenu exclusif sur la couverture de l'IA de pointe. Apprendre encore plus


Cet article fait partie d'un numéro spécial VB intitulé « Match for Goal : Tailoring AI Infrastructure ». Découvrez toutes les autres histoires ici.

Libérer le potentiel de l’IA pour offrir une plus grande efficacité, des économies de coûts et une connaissance plus approfondie des purchasers nécessite un équilibre cohérent entre cybersécurité et gouvernance.

L’infrastructure d’IA doit être conçue pour s’adapter et s’adapter aux orientations changeantes d’une entreprise. La cybersécurité doit protéger les revenus et la gouvernance doit rester en part avec la conformité en interne et dans l'ensemble de l'entreprise.

Toute entreprise cherchant à faire évoluer l’IA en toute sécurité doit continuellement rechercher de nouvelles façons de renforcer les composants essentiels de l’infrastructure. Tout aussi vital, la cybersécurité, la gouvernance et la conformité doivent partager une plateforme de données commune qui permet d’obtenir des informations en temps réel.

« La gouvernance de l'IA définit une approche structurée pour gérer, surveiller et contrôler le fonctionnement efficace d'un domaine ainsi que l'utilisation et le développement de systèmes d'IA centrés sur l'humain », Venky Yerrapotu, fondateur et PDG de 4CRisquea déclaré à VentureBeat. « Les outils d'IA packagés ou intégrés comportent des risques, notamment des biais dans les modèles d'IA, des problèmes de confidentialité des données et un potentiel d'utilisation abusive. »

Une infrastructure d’IA robuste facilite l’automatisation des audits, aide les équipes d’IA à trouver les obstacles et identifie les lacunes les plus importantes en matière de cybersécurité, de gouvernance et de conformité.

>>Ne manquez pas notre numéro spécial : Match for Goal: Tailoring AI Infrastructure.

« Avec peu ou pas de cadres de gouvernance ou de conformité approuvés par l'industrie à suivre, les organisations doivent mettre en œuvre les garde-fous appropriés pour innover en toute sécurité avec l'IA », Anand Oswal, vice-président directeur et directeur général de la sécurité des réseaux chez Réseaux de Palo Altoa déclaré à VentureBeat. « L’different est trop coûteuse, automobile les adversaires cherchent activement à exploiter la nouvelle voie de moindre résistance : l’IA. »

Se défendre contre les menaces pesant sur l'infrastructure de l'IA

Même si les objectifs des attaquants malveillants varient du acquire financier à perturber ou détruire infrastructure d'IA des pays en conflittous cherchent pour améliorer leur métier. Les attaquants malveillants, les gangs de cybercriminalité et les acteurs étatiques évoluent tous plus rapidement que même l’entreprise ou le fournisseur de cybersécurité le plus avancé.

« La réglementation et l'IA sont comme une course entre une mule et une Porsche », Etay Maor, stratège en chef de la sécurité chez Réseaux Catoa déclaré à VentureBeat. « Il n'y a pas de concurrence. Les régulateurs rattrapent toujours la technologie, mais dans le cas de l’IA, c’est particulièrement vrai. Mais voici le problème : les acteurs menaçants ne jouent pas gentiment. Ils ne sont pas limités par la réglementation et recherchent activement des moyens de briser les restrictions imposées aux nouvelles applied sciences d'IA.

Des groupes cybercriminels et parrainés par l'État basés en Chine, en Corée du Nord et en Russie ciblant à la fois les infrastructures physiques et IA et utiliser des logiciels malveillants générés par l’IA pour exploiter les vulnérabilités plus efficacement et d’une manière qui est souvent indéchiffrable pour les défenses de cybersécurité traditionnelles.

Les équipes de sécurité risquent toujours de perdre la guerre contre l’IA, automobile les organisations cybercriminelles et les États-nations bien financés ciblent les infrastructures d’IA des pays et des entreprises.

Une mesure de sécurité efficace est le filigrane des modèles, qui intègre un identifiant distinctive dans les modèles d'IA pour détecter toute utilisation non autorisée ou toute falsification. De plus, les outils de détection des anomalies basés sur l’IA sont indispensables pour la surveillance des menaces en temps réel.

Toutes les entreprises avec lesquelles VentureBeat s'est entretenu sous couvert d'anonymat utilisent activement les strategies de crimson teaming. Anthropic, par exemple, a prouvé la valeur de la conception basée sur l’humain pour combler les failles de sécurité lors des exams de modèles.

« Je pense que la conception de l'humain au milieu est avec nous dans un avenir proche pour fournir une intelligence contextuelle, une instinct humaine pour affiner un LLM (grand modèle de langage) et réduire l'incidence des hallucinations », Itamar Sher, PDG de Sécurité des scellésa déclaré à VentureBeat.

Les modèles sont les surfaces de menace à haut risque d'une infrastructure d'IA

Chaque modèle mis en manufacturing constitue une nouvelle floor de menace qu'une organisation doit protéger. Adoption annuelle de l'IA par Gartner enquête a constaté que 73 % des entreprises ont déployé des centaines ou des milliers de modèles.

Les attaquants malveillants exploitent les faiblesses des modèles en utilisant une massive base de strategies artisanales. Cadre de gestion des risques liés à l'intelligence artificielle du NIST est un doc indispensable pour quiconque construit une infrastructure d'IA et fournit un aperçu des varieties d'attaques les plus répandus, notamment l'empoisonnement des données, l'évasion et le vol de modèles.

Sécurité de l'IA écrit« Les modèles d'IA sont souvent ciblés through des requêtes API pour procéder à une rétro-ingénierie de leurs fonctionnalités. »

Mettre en place une bonne infrastructure d’IA est également un objectif mouvant, préviennent les RSSI. « Même si vous n'utilisez pas l'IA de manière explicitement centrée sur la sécurité, vous l'utilisez d'une manière qui compte pour votre capacité à connaître et à sécuriser votre environnement », Merritt Baer, ​​RSSI chez Recoa déclaré à VentureBeat.

Placer la conception axée sur la confiance au centre de l’infrastructure de l’IA

Tout comme un système d’exploitation a des objectifs de conception spécifiques qui s’efforcent d’assurer la responsabilité, l’explicabilité, l’équité, la robustesse et la transparence, il en va de même pour l’infrastructure d’IA.

Implicite tout au lengthy du Cadre NIST est une feuille de route de conception pour la confiance, qui offre une définition pratique et pragmatique pour guider les architectes d'infrastructure. Le NIST souligne que la validité et la fiabilité sont des objectifs de conception indispensables, en particulier dans l’infrastructure d’IA, pour fournir des résultats et des performances dignes de confiance et fiables.

Supply: NIST, janvier 2023, DOI : 10.6028/NIST.AI.100-1.

Le rôle essentiel de la gouvernance dans l’infrastructure de l’IA

Les systèmes et modèles d’IA doivent être développés, déployés et entretenus de manière éthique, sécurisée et responsable. La gouvernance doit être conçue pour offrir des flux de travail, une visibilité et des mises à jour en temps réel sur la transparence algorithmique, l'équité, la responsabilité et la confidentialité. La pierre angulaire d’une gouvernance solide begin lorsque les modèles sont continuellement surveillés, audités et alignés sur les valeurs sociétales.

Les cadres de gouvernance doivent être intégrés à l’infrastructure d’IA dès les premières phases de développement. La « gouvernance dès la conception » intègre ces principes dans le processus.

« La mise en œuvre d'un cadre d'IA éthique nécessite de se concentrer sur les facets de sécurité, de partialité et de confidentialité des données, non seulement pendant le processus de conception de la answer, mais également tout au lengthy des exams et de la validation de tous les garde-fous avant de déployer les options auprès des utilisateurs finaux. » WinWire » a déclaré le CTO Vineet Arora à VentureBeat.

Concevoir des infrastructures d'IA pour réduire les biais

L'identification et la réduction des biais dans les modèles d'IA sont essentielles pour fournir des résultats précis et éthiquement solides. Les organisations doivent intensifier leurs efforts et assumer la responsabilité de la manière dont leurs infrastructures d’IA surveillent, contrôlent et s’améliorent afin de réduire et d’éliminer les préjugés.

Les organisations qui assument la responsabilité de leurs infrastructures d’IA s’appuient sur des modèles d’entraînement contradictoires pour minimiser la relation entre les attributs protégés (y compris la race ou le sexe) et les résultats, réduisant ainsi le risque de discrimination. Une autre approche consiste à rééchantillonner les données de formation pour garantir une représentation équilibrée pertinente pour différents secteurs.

« L'intégration de la transparence et de l'explicabilité dans la conception des systèmes d'IA permet aux organisations de mieux comprendre remark les décisions sont prises, permettant ainsi une détection et une correction plus efficaces des résultats biaisés. » dit NIST. Fournir des informations transparentes sur la manière dont les modèles d’IA prennent des décisions permet aux organisations de mieux détecter, corriger et tirer les leçons des préjugés.

Remark IBM gère la gouvernance de l'IA

Comité d'éthique de l'IA d'IBM supervise l'infrastructure d'IA et les projets d'IA de l'entreprise, en veillant à ce que chacun reste éthiquement conforme aux normes internes et de l'industrie. IBM a initialement établi un cadre de gouvernance pour inclure ce qu'ils appellent des « factors focaux », ou des cadres de niveau intermédiaire dotés d'une experience en IA, qui examinent les projets en développement pour garantir leur conformité avec les principes de confiance et de transparence d'IBM.

IBM affirme que ce cadre aide à réduire et à contrôler les risques au niveau du projet, atténuant ainsi les risques pour les infrastructures d'IA.

Christina Montgomery, responsable de la confidentialité et de la confiance chez IBM, dit« Notre comité d'éthique de l'IA joue un rôle essentiel dans la supervision de notre processus de gouvernance interne de l'IA, en créant des garde-fous internes raisonnables pour garantir que nous introduisons la technologie dans le monde de manière responsable et sûre. »

Les cadres de gouvernance doivent être intégrés à l’infrastructure d’IA dès la part de conception. La notion de la gouvernance dès la conception veille à ce que la transparence, l’équité et la responsabilité fassent partie intégrante du développement et du déploiement de l’IA.

L’infrastructure d’IA doit fournir une IA explicable

La réduction des écarts entre la cybersécurité, la conformité et la gouvernance s’accélère dans les cas d’utilisation des infrastructures d’IA. Deux tendances ont émergé de la recherche VentureBeat : l’IA agentique et l’IA explicable. Les organisations dotées d’une infrastructure d’IA cherchent à adapter et à adapter leurs plateformes pour tirer le meilleur parti de chacune d’entre elles.

Parmi les deux, l’IA explicable begin à fournir des informations permettant d’améliorer la transparence des modèles et de résoudre les biais. « Tout comme nous attendons de la transparence et de la rationalité dans les décisions commerciales, les systèmes d'IA devraient être capables de fournir des explications claires sur la manière dont ils parviennent à leurs conclusions », Joe Burton, PDG de Réputationa déclaré à VentureBeat. « Cela favorise la confiance et garantit la responsabilité et l'amélioration proceed. »

Burton a ajouté : « En nous concentrant sur ces piliers de gouvernance – droits sur les données, conformité réglementaire, contrôle d'accès et transparence – nous pouvons tirer parti des capacités de l'IA pour stimuler l'innovation et le succès tout en respectant les normes les plus élevées d'intégrité et de responsabilité.


la source