<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div class=""></div><div class=""><b class=""><br class=""></b></div><div class="">Join us for a panel discussion on artificial intelligence and ethics with panelists highlighting key issues&nbsp;and/or challenges. As an attendee, you will have the opportunity for a Q&amp;A session once panelists have given their&nbsp;presentations.&nbsp;Not only are social scientists and humanists raising concerns about the realities and directions of AI;&nbsp;many students and faculty in engineering are also voicing hesitations about many aspects of it, something few of us have seen&nbsp;with previous technologies.<br class=""><br class="">Listen in as the panelists raise the right issues about broader currents in computer science, AI, and society.</div><div class=""><br class=""></div><div class=""><a href="https://hss.sas.upenn.edu/people/stephanie-dick" class=""><b class="">Stephanie Dick</b></a><b class="">, University of Pennsylvania<br class="">Panelist</b><br class="">Stephanie Dick&nbsp;is an Assistant Professor of History and Sociology of Science at the University of Pennsylvania. Prior to&nbsp;joining the faculty, she was a Junior Fellow in the Harvard Society of Fellows. She holds a PhD in History of Science from&nbsp;Harvard University. She is a historian of mathematics, computing, and artificial intelligence. Her first book project&nbsp;Making Up&nbsp;Minds: Proof and Computing in the Postwar United States&nbsp;tracks early efforts to automate mathematical proof and the many&nbsp;controversies about minds and machines that surrounded them. Her second project explores the early introduction of&nbsp;computing to domestic policing in the United States, including databasing practices and automated identification tools.<br class=""><br class="">ABSTRACT:&nbsp;In 1969, the New York State Police Department became the first in America to create a centralized and&nbsp;standardized computerized law enforcement database. NYSIIS – the New York State Identification and Intelligence System&nbsp;– was developed after the 1957 Appalachin Meeting of organized crime in New York State, at which Sergeant Edgar&nbsp;Croswell explained numerous “information circulation” bottlenecks and failures that had slowed his infamous Appalachin&nbsp;raid, which had resulted in over 60 arrests.&nbsp;He reported that some of the main suspects in his investigation were the&nbsp;subjects of “as many as two hundred separate official police files in a surrounding area of several hundred miles,” and called&nbsp;for more efficient and centralized file-sharing. The resulting NYSIIS system was heralded as a “scientific breakthrough” in&nbsp;policing that would allow improved objectivity and accuracy especially in the identification of individuals who had multiple&nbsp;encounters with law enforcement. However, like many supposedly “innovative technologies” NYSIIS was in fact very&nbsp;conservative, serving to reinforce a social order that subjected different parts of the population differentially to surveillance&nbsp;and policing. In this short presentation, I will describe the system, and turn quickly to the 1974 Congressional hearings that&nbsp;followed. The hearings were meant to investigate whether or not people’s rights were being violated by law enforcement&nbsp;databasing practices. However, their inquiries operated entirely within the logic of databasing, surveillance, and automated&nbsp;identification at work in systems like NYSIIS, never questioning its underlying vision of policing or the policed. I use this case&nbsp;to demonstrate how technical choices can foreclose legal, ethical, and political ones and how critique, when it happens on&nbsp;the terms of that which it critiques, can strengthen, more than check technical power.<br class=""><br class=""><a href="https://www.informatics.uci.edu/explore/faculty-profiles/paul-dourish/" class=""><b class="">Paul Dourish</b></a><b class="">, UC-Irvine<br class="">Panelist</b><br class="">Paul Dourish&nbsp;is Chancellor’s Professor of Informatics in the Donald Bren School of Information and Computer Sciences at&nbsp;UC Irvine, with courtesy appointments in Computer Science and Anthropology. He is also an Honorary Professorial Fellow in&nbsp;Computing and Information Systems at the University of Melbourne. His research focuses primarily on understanding&nbsp;information technology as a site of social and cultural production; his work combines topics in human-computer interaction,&nbsp;social informatics, and science and technology studies. He is the author of several books, most recently “The Stuff of Bits:&nbsp;An Essay on the Materialities of Information” (MIT Press, 2017). He is a Fellow of the ACM, a Fellow of the BCS, a member&nbsp;of the SIGCHI Academy, and a recipient of the AMIA Diana Forsythe Award and the CSCW Lasting Impact Award.</div><div class=""><br class="">ABSTRACT:&nbsp;The technical community’s response to the challenges of ethics in AI has been to turn towards fairness,&nbsp;accountability, and transparency as ways of opening up AI decision-making to human scrutiny. These properties have two&nbsp;characteristics — first, that they look internally to the constitution of technical arrangements, and second, that they gesture&nbsp;towards quantitative assessments of impact. I will explore how we might found a notion of ethics and AI around a collective&nbsp;and relational model founded in feminist ethics of care.<br class=""><br class=""><a href="https://gseis.ucla.edu/directory/safiya-umoja-noble/" class=""><b class="">Safiya Noble</b></a><b class="">,&nbsp;UCLA<br class="">Panelist</b><br class="">Dr. Safiya Umoja Noble is an Associate Professor at UCLA in the Departments of Information Studies and African American&nbsp;Studies. &nbsp;She is the author of a best-selling book on racist and sexist algorithmic bias in commercial search engines, entitled&nbsp;Algorithms of Oppression: How Search Engines Reinforce Racism&nbsp;(NYU Press). Dr. Noble is the co-editor of two edited&nbsp;volumes:&nbsp;The Intersectional Internet: Race, Sex, Culture and Class Online&nbsp;and&nbsp;Emotions, Technology &amp; Design. She&nbsp;currently serves as an Associate Editor for the&nbsp;Journal of Critical Library and Information Studies, and is the co-editor of the&nbsp;Commentary &amp; Criticism section of the&nbsp;Journal of Feminist Media Studies. She is a member of several academic journal and&nbsp;advisory boards, including&nbsp;Taboo: The Journal of Culture and Education.<br class=""><br class=""><br class=""><a href="https://www.csail.mit.edu/person/d-fox-harrell" class=""><b class="">D. Fox Harrell</b></a><b class="">, MIT<br class="">MODERATOR</b><br class="">D. Fox Harrell&nbsp;is Professor of Digital Media &amp; Artificial Intelligence in the Comparative Media Studies Program and&nbsp;Computer Science and Artificial Intelligence Laboratory (CSAIL) at MIT. He is the director of the MIT Center for Advanced&nbsp;Virtuality. His research explores the relationship between imagination and computation and involves inventing new forms of&nbsp;VR, computational narrative, videogaming for social impact, and related digital media forms. The National Science&nbsp;Foundation has recognized Harrell with an NSF CAREER Award for his project “Computing for Advanced Identity&nbsp;Representation.” Dr. Harrell holds a Ph.D. in Computer Science and Cognitive Science from the University of California, San&nbsp;Diego. His other degrees include a Master’s degree in Interactive Telecommunication from New York University’s Tisch&nbsp;School of the Arts, and a B.S. in Logic and Computation and B.F.A. in Art (electronic and time-based media) from Carnegie&nbsp;Mellon University – each with highest honors. He has worked as an interactive television producer and as a game designer.&nbsp;His book&nbsp;Phantasmal Media: An Approach to Imagination, Computation, and Expression&nbsp;was published by the MIT Press&nbsp;(2013).</div><div class=""><br class=""></div><div class=""><div style="font-family: &quot;Helvetica Neue&quot;;"><font face="HelveticaNeue-Thin" class=""><span class="" style="font-size: 9px;">_______________________________________<br class="">Gus Zahariadis<br class="">Assistant to the Director<br class="">MIT Program in Science, Technology, and Society<br class="">T: (617) 253-3452<br class="">F: (617) 258-8118<br class=""><a href="mailto:gusz@mit.edu" class="">gusz@mit.edu</a><br class="">sts-program.mit.edu</span></font></div><div class=""><font face="HelveticaNeue-Thin" class=""><span class="" style="font-size: 9px;"><br class=""></span></font></div></div></body></html>