<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:DengXian;
        panose-1:2 1 6 0 3 1 1 1 1 1;}
@font-face
        {font-family:Aptos;
        panose-1:2 11 0 4 2 2 2 2 2 4;}
@font-face
        {font-family:"\@DengXian";
        panose-1:2 1 6 0 3 1 1 1 1 1;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:12.0pt;
        font-family:"Aptos",sans-serif;
        mso-ligatures:standardcontextual;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#467886;
        text-decoration:underline;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;
        mso-ligatures:none;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style>
</head>
<body lang="EN-US" link="#467886" vlink="#96607D" style="word-wrap:break-word">
<div class="WordSection1">
<p class="MsoNormal"><span style="color:#212121">Join us on Tuesday 10/21 for the next <a href="https://ai4society.mit.edu/seminar/" title="https://ai4society.mit.edu/seminar/"><span style="color:#0078D4">AI4Society seminar</span></a> featuring <a href="https://emblack.github.io/" title="https://lily-x.github.io/"><span style="color:#0078D4">Emily
 Black</span></a>, details below! If you are interested in meeting with Emily, email kpd46@mit.edu.  <o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:#212121"><o:p> </o:p></span></p>
<p class="MsoNormal"><b><span style="color:#212121">Talk Date/Time</span></b><span style="color:#212121">: Tuesday October 21 at 4:00 PM<o:p></o:p></span></p>
<p class="MsoNormal"><b><span style="color:#212121">Location</span></b><span style="color:#212121">: 45-102 <o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:#212121"><o:p> </o:p></span></p>
<p class="MsoNormal"><b><span style="color:#212121">Title</span></b><span style="color:#212121">: On Generative AI Harms: Evaluating them, and Relevant Law<o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:#212121"><o:p> </o:p></span></p>
<p class="MsoNormal"><b><span style="color:#212121">Abstract</span></b><span style="color:#212121">: In this talk, I値l present my recent work on technical pitfalls and legal tensions around the evaluation of GenAI harms. Through four case studies, I値l show
 how misalignment between regulatory goals and fairness testing techniques can lead to regulation that admits discriminatory behavior. For example, I値l show how different forms of GenAI evaluation instability---for example, instability in observed discrimination
 over multi-turn interactions--exacerbate existing regulatory challenges such as creating reliable evidence of discrimination testing and mitigation, and tensions between developer and deployer responsibilities. In addition, I値l discuss ongoing work showing
 how some long-standing consumer protection laws might be a useful tool in preventing harms from GenAI hallucinations. Finally, time permitting, I値l discuss ongoing work with prior EEOC chairs Charlotte Burrows and Jenny Yang, as well as Pauline Kim (Washington
 University - St Louis Law School) on the legality of common debiasing techniques in AI and GenAI systems.<o:p></o:p></span></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal"><b><span style="color:#212121">Bio</span></b><span style="color:#212121">: Emily Black is an Assistant Professor of Computer Science and Engineering at New York University. Her work centers around how to make AI systems more fair, transparent,
 and accountable to the public. Her research develops tools to identify when automated systems may cause harm, investigates how AI affects equity in areas like employment and government, and connects technical insights to law and policy to guide real-world
 regulation. Working across disciplines謡ith lawyers, policymakers, and civil society groups耀he aims to make AI systems more just and more reliable in practice. Before NYU, she was briefly at Barnard College, did her postdoc at Stanford Law School, and got
 her PhD in CS from Carnegie Mellon University.<o:p></o:p></span></p>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
</body>
</html>