Chargé de projet innovation - data science responsable et de confiance - Paris

💡 Structure de l’ESS
Stage
CDI
CDD
Localisation Paris, France
Tech
Télétravail total autorisé
Publiée le 17/08/2021
Début : septembre 2021

Substra Foundation

Développer la data science collaborative, responsable et de confiance

💡 Structure de l’ESS

Cette structure repose sur un principe de solidarité et d’utilité sociale : son mode de gestion est démocratique et participatif, et sa lucrativité est limitée. Il s’agit d’une association, coopérative, fondation, mutuelle ou entreprise ESUS.

Plus d'informations
Mesure d'impact
Substra Foundation n'a pas encore transmis de mesure d'impact
Labels et certifications
Cette structure n'a pas souhaité nous communiquer les labels ou certifications qu'elle a pu obtenir.
Voir plus

🤔 Substra Foundation, kézako ? 🤔


Substra Foundation est une organisation de recherche et d’innovation indépendante qui se consacre à la data science collaborative responsable et de confiance.

Elle met à disposition, entre autres, un outil d’auto-évaluation des pratiques de data science, où toutes les organisations peuvent noter et challenger leur niveau de maturité et ainsi accéder à de nombreuses références techniques pour monter en compétence.

Elle anime également le meetup de la Data Science Responsable et de Confiance, regroupant une communauté de +200 participants en croissance constante.

Tu veux tout savoir ? Explore le site internet de Substra Foundation. 


🤜 Tes missions ! 🤛


Un nouvel espace émerge au croisement entre expansion de l'IA dans les organisations et les systèmes automatiques, et inquiétudes du public sur les données privées, la transparence et la robustesse des algorithmes.

Ce sont deux tendances puissantes qui commencent déjà à se percuter. Comment les réconcilier, les conjuguer ensemble ? Des solutions techniques et organisationnelles nouvelles sont indispensables pour cela, pour accorder un cadre de confiance qui manque aujourd’hui, pour rendre possible des collaborations nouvelles, prometteuses et sûres entre les entreprises, les institutions publiques et les citoyens.

C’est en se posant ces questions et en y travaillant que nous avons, à partir de début 2019, commencé à imaginer l’intérêt qu’il y aurait à explorer ce thème et élaborer un outil qui soit à destination des praticiens, utile et actionnable dès que possible.  

Plus de deux années plus tard, ponctuée de dix ateliers participatifs et d’innombrables échanges, tests avec des cobayes, présentations, nous avons en conséquence créé un référentiel d’évaluation de la Data Science Responsable de Confiance : 

  • une évaluation des approches responsables et de confiance de la data science ;
  • à destination des organisations, pour évaluer leur maturité ;
  • composée de 35 points d’évaluation regroupés en 6 sections thématiques ;
  • qui fournit en sortie un score synthétique sur 100 points (maximum théorique), sachant qu’à la date d’aujourd’hui 55/100 est un niveau de maturité très avancé ;
  • qui se complète de ressources techniques pour chaque point d’évaluation, constituant de bons points d’entrée pour les organisations qui souhaitent s’y former.

En plus de cela, dans le cadre de Data For Good, nous avons posé les première briques de la création d’un MOOC de la Data Science Responsable et de Confiance, et nous travaillons également à un label certifiant ainsi qu’à un outil de “public AI register”.

Nous souhaitons continuer avec toi à :

  • Renforcer ce référentiel d’évaluation, en y apportant des ressources supplémentaires, des guides techniques et des approches pédagogiques permettant à n’importe quel Data Scientist d’élever son niveau de maturité sur ces domaines
  • Poursuivre la création de contenu à destination du MOOC
  • Approfondir les travaux sur les nouveaux outils s’appuyant sur le référentiel (label, outil de “public AI register”)


Tes principales missions consisteront à : 

  • Étudier les nouvelles initiatives (proposition de règlement de la Commission Européenne, consultation du LNE, autres pays…) et la (vaste !) littérature autour de l’IA responsable et en extraire de nouveaux points d’évaluation du référentiel ou les compléter
  • Identifier des ressources techniques autour de différents sujets (Privacy Enhancing Technologies, Fairness Metrics, Differential Privacy, robustesse, trade-off fairness-performance…) 
  • Proposer des notebooks, des tutoriels techniques autour des différents sujets du référentiels 
  • Créer de nouveaux contenus (podcasts, quizzs, notebooks, fiches explicatives) à destination du MOOC de la Data Science Responsable et de Confiance
  • Poser avec nous les premières pierres d’un ou plusieurs nouveaux outils s’appuyant sur le référentiel


Pour plus d’information sur  la démarche participative sur le thème « data science responsable et de confiance » que nous avons initiée à l’été 2019 et que nous animons depuis, tu peux lire cet article de blog : Comment résoudre la tension entre potentiel de l’IA et craintes associées ?


🙋‍♀️ Ton profil ! 🙋‍♂️ 


En termes de formation et d'expérience, nous ouvrons 2 postes :

  • Un stage de 6 mois pour un élève ingénieur suivant un cursus data science
  • Un CDI ou CDD 1 an pour un ingénieur avec au moins 2 ans d'expérience professionnelle et un bon bagage data science


Caractéristiques du profil recherché :

  • Tu as un profil technique, mais tu as également une fibre entrepreneuriale ; gérer un projet, prendre des initiatives ne te fait pas peur
  • Tu es rigoureux, tu as un très bon esprit d’analyse et tu aimes creuser en profondeur les sujets qui te sont confiés
  • Tu aimes le travail collaboratif : tu partages tes idées et tes difficultés, mais également tu écoutes et intègres celles des autres. Tu donnes et recherches les feedbacks
  • L’Open Source t’intéresse, voire tu contribues déjà à un ou plusieurs projets
  • Data Science de confiance, Data Privacy, IA responsable et de confiance : ces notions résonnent avec tes convictions
  • Travailler dans une petite équipe à taille humaine répartie sur différents sites ne te fait pas peur !
  • Tu parles et écris couramment le français et l’anglais



🤟 Pourquoi rejoindre Substra Foundation ? 🤟


  • 🤓 Rejoindre une structure regroupant des profils expérimentés et pointus aux compétences variées : multi-entrepreneur, experts du Machine Learning et de l’IA, chefs de projets expérimentés...
  • 🚀 Travailler sur les sujets du moment qui comptent, de manière concrète et sans bullshit
  • 🧠 Avoir une première expérience quasi-entrepreneuriale, faisant appel à des compétences et savoirs variés, avec responsabilité et en autonomie


Tu te reconnais dans cette fiche de poste ? Alors envoie nous ta candidature à Cliquez sur candidater pour accéder aux informations. en nous expliquant pourquoi le projet t’intéresse.