

Si le logiciel libre et les communs numériques constituaient la meilleure piste à envisager pour reconquérir notre souveraineté numérique ? Tristan Nitot prend la parole sur le sujet.
Le média de ceux qui réinventent l'entreprise
La croissance fulgurante de l’IA éthique fait naître des interrogations et même des craintes chez certains experts du secteur 😰 : ils craignent de ne pas atteindre les objectifs éthiques de l’entreprise. Mais alors, pour quelles raisons ? Hausse des coûts, mauvais résultats commerciaux… les risques évoqués sont divers et nombreux. Une étude conduite par Forrester met en lumière ces craintes, retour sur les éléments les plus marquants.
De nombreux experts ont tenté de répondre à cette question tant au niveau national qu’international. Ce n’est qu’en avril 2019 que la Commission européenne a identifié 7 éléments essentiels pour parvenir à une IA éthique et de confiance :
Les responsables interrogés par Forrester craignent de ne pas atteindre les objectifs réglementaires fixés par leur entreprise dès le premier jour. Ainsi, ce ne sont que la moitié d’entre eux qui sont capables de surmonter ces risques.
La raison ? Le principal obstacle est la grande complexité des processus automatisés et le temps d’adaptation.
Qui dit IA éthique dit nouveaux outils, et qui dit nouveaux outils dit besoin de formation et manque de compétence des collaborateurs.
Ainsi, l’autre risque annoncé par l'étude de Forrester est celui de voir une déperdition des compétences des collaborateurs en termes d’automatisation des processus. En effet, deux tiers des participants à l’étude expliquent que l’intégration de nouveaux outils sera très complexe.