Études sociales de l’IA – groupe de lecture

21 février 2019
18 février 2019

Le CIRST et HumanIA ont le plaisir d’inviter leurs membres à participer à un nouveau groupe de lecture sur les études sociales de l’intelligence artificielle (GLESIA). Ce groupe de lecture mensuel ouvert à toutes et à tous vise à engager un dialogue interdisciplinaire sur les enjeux sociaux de l’IA. Une vaste littérature multidisciplinaire couvre les études sociales de l’IA. Dans le cadre de ce groupe de lecture, il s’agira d’échantillonner cette littérature et d’en discuter les enjeux.

Organisateurs : François Claveau, Guillaume Dandurand et Dominic Martin

Quand : Le groupe de lecture se réunira tous les quatre jeudis sur l’heure du dîner.

 : Les séances auront lieu en alternance dans les universités représentées et en fonction de la répartition des participants.


Calendrier des rencontre – Hiver 2018-2019

18 février 2019 | Algorithmes et inégalités

Texte soumis à discussion :

  • Viriginia Eubanks (2019). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York : St. Martin’s Press. *chapitre(s) à confirmer*

21 janvier 2019 | Algorithmes et le futur du travail: Le modèle d’Uber

Textes soumis à discussion :

  • Rosenblat, A. (2018). Uberland. How Algorithms Are Rewrinting the Rules of Work, Using an APP to go to work – Uber as a Symblo of the New Economy (p. 1-20), University of California Press. * texte optionnel *
  • Rosenblat, A. (2018). Uberland. How Algorithms Are Rewrinting the Rules of Work, The Technology Pitch – How Uber creates Entrepreneurship for the Masses (p. 73-104), University of California Press.
  • Rosenblat, A. (2018). Uberland. How Algorithms Are Rewrinting the Rules of Work, In the Big Leagues – How Uber Plays Ball (p. 167-194), University of California Press.

20 décembre 2018 | Reddition de compte algorithmique

Textes soumis à discussion :

  • Ananny, M., & Crawford, K. (2016). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society, 20(3), 973-989. DOI: 10.1177/1461444816676645
  • Kroll, Joshua A., Joanna Huey, Solon Barocas, Edward W. Felten, Joel R. Reidenberg, David G. Robinson, and Harlan Yu. 2017. “Accountable Algorithms.” University of Pennsylvania Law Review 165 (3): 633. Disponible en ligne.

22 novembre 2018 | IA, politiques publiques et voitures autonomes

Textes soumis à discussion :

  • Stilgoe, Jack. 2018. Machine learning, social learning and the governance of self-driving cars, Social Studies Science, vol. 48(1): 25-56. https://doi.org/10.1177/0306312717741687
  • Cath, C., Wachter, S., Mittelstadt, B., Taddeo, M., Floridi, L., 2018. Artificial Intelligence and the ‘Good Society’: the US, EU, and UK approach. Sci Eng Ethics 24: 505–528. http://dx.doi.org/10.2139/ssrn.2906249

25 octobre 2018 | Introduction

Textes soumis à discussion :

  • Pasquale, Frank. 2016. The Black Box Society: The Secret Algorithms That Control Money and Information. Reprint edition. Cambridge, Massachusetts: Harvard University Press. Chap. 2
  • Chander, Anupam. 2017. “The Racist Algorithm?” Michigan Law Review, 115 (6): 1023–45.
Mis à jour le 18 février 2019 à 13 h 29 min.