La revue Vie et Sciences de l'Entreprise (VSE) déjà classée FNEGE émergente en 2019 est maintenant classée FNGE 4 !!!
VSE : Vie et Sciences de l'Entreprise
Bienvenue sur le site de «Vie & Sciences de l'Entreprise». VSE était publiée sous l'intitulé «Vie & Sciences Économiques», jusqu'au printemps 2010. VSE est une revue publiée par l'Association Nationale des Docteurs en Sciences Économiques et en Sciences de Gestion depuis 1960.
L'organisation de la recherche universitaire par disciplines académiques a promu une forte spécialisation au détriment de la transversalité. Nous souhaitons apporter à notre lectorat un équilibre entre des articles traitant de l'économie, des sciences de gestion et du management.
Classements :
Vie & Sciences de l’Entreprise figure dans dans l'Econlit Expanded Journal List et dans la liste des revues AERES pour le domaine économie – gestion (du 17/10/2012).
Quelques précisions concernant la liste AERES :
"Pour qualifier un produisant, toute revue référencée dans la liste classée ou non-classée sera considérée". Il en découle que, désormais, les articles publiés dans VSE comptent dans le critère des chercheurs ‘produisants’.
Cette liste résulte d'une « fusion de la liste des revues 2011 de la FNEGE et du CoNRS » et « les revues supplémentaires adoptées par la Commission ne sont pas classées ». Apparaître non-classée dans cette liste ne présage donc en rien de la qualité scientifique de la revue.
VSE revendique une démarche éthique en tant qu’organisation impliquée au sein de sa communauté scientifique. A ce titre, elle applique dans ses propres process la charte éthique « Code de conduite européen pour l’intégrité en recherche ». Chaque auteur souhaitant soumettre un article à la revue scientifique VSE s’engage à respecter scrupuleusement cette charte éthique. Le comité de rédaction s’autorise le droit de refuser des contributions scientifiques qui ne s’inscriraient pas dans les valeurs portées par cette charte éthique. La charte éthique "Code de conduite européen pour l’intégrité en recherche" est disponible via le lien suivant :
https://www.allea.org/wp-content/uploads/2018/01/FR_ALLEA_Code_de_conduite_europeen_pour_lintegrite_en_recherche.pdf
Référencements :
VSE est aujourd'hui référencée par ProQuest, ainsi que par les deux principales bases francophones : CAIRN et Vente et Gestion.
ISSN : 2262-5321 (Version imprimée) (ex ISSN : 0336-142X)
e-ISSN : 2262-5372 (Version électronique)
Pour s'abonner à VSE, veuillez remplir ce bulletin d'adhésion ANDESE - VSE.
Un cadre d’autorégulation pour l’éthique de L’IA : opportunités et défis
Résumé :
Nous proposons un outil d'autorégulation pour la conception d'IA qui intègre des mesures sociétales telles que l'équité, l'interprétabilité et la confidentialité. Pour ce faire, nous créons une interface qui permet aux praticiens de l’IA (experts en mégadonnées/data scientists) de choisir visuellement l'algorithme d’apprentissage (Machine Learning/ML) qui correspond le mieux aux préférences éthiques des concepteurs d'IA. En utilisant une méthodologie de conception en design science (science du design), nous testons l'artefact sur des data scientists et montrons que l'interface est facile à utiliser, permet de mieux comprendre les enjeux éthiques de l'IA, génère des débats, rend les algorithmes plus éthiques et est opérationnelle pour la prise de décision. Notre première contribution est de construire un outil de régulation de l'IA qui intègre non seulement les préférences éthiques des utilisateurs, mais aussi les singularités du cas pratique appris par l'algorithme. La méthode est indépendante des cas d'utilisation et des procédures d'apprentissage ML. Notre deuxième contribution est de montrer que les data scientists peuvent choisir librement de sacrifier certaines performances pour atteindre des algorithmes plus éthiques, à condition d'utiliser des outils réglementaires appropriés. Nous fournissons ensuite les conditions dans lesquelles cette approche technique et autorégulatrice peut échouer. Cet article montre comment il est possible de combler le fossé entre les théories et les pratiques en matière d'éthique de l'IA à l'aide d'outils flexibles qui prennent en compte les singularités des cas pratiques.
Mots-clés : Éthique de l'IA, réglementation, Machine Learning, Autoapprentissage, science du design, Design Science, compromis, mégadonnées
Abstract: A SELF-REGULATORY FRAMEWORK FOR IA ETHICS: OPPORTUNITIES AND CHALLENGES
We propose a self-regulatory tool for AI design that integrates societal metric s such as fairness, interpretability, and privacy. To do so, we create an interface that allows data scientists to visually choose the Machine Learning (ML) algorithm that best fits the AI designers’ ethical preferences. Using a Design Science methodology, we test the artifact on data scientist users and show that the interface is easy to use, gives a better understanding of the ethical issues of AI, generates debate, makes the algorithms more ethical, and is operational for decision-making. Our first contribution is to build a bottom-up AI regulation tool that integrates not only users’ ethical preferences, but also the singularities of the practical case learned by the algorithm. The method is independent of ML use cases and ML learning procedures. Our second contribution is to show that data scientists can select freely to sacrifice some performance to reach more ethical algorithms if they use appropriate regulatory tools. We then provide the conditions under which this technical and self-regulatory approach can fail. This paper shows how it is possible to bridge the gap between theories and practices in AI Ethics using flexible and bottom-up tools.
Keywords: AI Ethics, regulation, Machine Learning, Design Science, trade-off
Resumen: UN MARCO AUTORREGULADOR PARA LA ÉTICA DE LA IA: OPORTUNIDADES Y RETOS
Proponemos una herramienta de autorregulación para el diseño de IA que integra métricas sociales como la equidad, la interpretabilidad y la privacidad. Para ello, creamos una interfaz que permite a los científicos de datos elegir visualmente el algoritmo de aprendizaje automático (ML) que mejor se adapte a las preferencias éticas de los diseñadores de IA. Utilizando una metodología de Design Science, probamos el artefacto con usuarios científicos de datos y demostramos que la interfaz es fácil de usar, permite comprender mejor las cuestiones éticas de la IA, genera debate, hace que los algoritmos sean más éticos y es operativa para la toma de decisiones. Nuestra primera contribución es construir una herramienta de regulación ascendente de la IA que integre no sólo las preferencias éticas de los usuarios, sino también las singularidades del caso práctico aprendido por el algoritmo. El método es independiente de los casos de uso de ML y de los procedimientos de aprendizaje de ML. Nuestra segunda contribución es demostrar que los científicos de datos pueden elegir libremente sacrificar parte del rendimiento para conseguir algoritmos más éticos si utilizan herramientas de regulación adecuadas. A continuación, proporcionamos las condiciones en las que este enfoque técnico y autorregulador puede fallar. Este documento muestra cómo es posible salvar la brecha entre las teorías y las prácticas en la ética de la IA utilizando herramientas flexibles y ascendentes.
Palabras claves: Ética de la IA, regulación, aprendizaje automático, ciencia del diseño, compromiso