<div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:13.91px"><font face="arial, sans-serif"><b>When:</b>      Monday, October 14th at 11:00 am</font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:13.91px"><font face="arial, sans-serif"><b>Where:</b>     TTIC, 6045 S. Kenwood Avenue, 5th Floor, Room 526</font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:13.91px"><font face="arial, sans-serif"><b>Who:         </b></font>Olga Russakovsky, Princeton University</p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:13.91px"><font face="arial, sans-serif"><b>Title:         </b></font>Fairness in visual recognition</p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:13.91px"><font face="arial, sans-serif"><b>Abstract:  </b></font>Computer vision models trained on unparalleled amounts of data hold promise for making impartial, well-informed decisions in a variety of applications. However, more and more historical societal biases are making their way into these seemingly innocuous systems. Visual recognition models have exhibited bias by inappropriately correlating age, gender, sexual orientation and race with a prediction. The downstream effects of such bias range from perpetuating harmful stereotypes on an unparalleled scale to increasing the likelihood of being unfairly predicted as a suspect in a crime (when face recognition, which is notoriously less accurate on Black than White faces, is used in surveillance cameras). In this talk, we'll dive deeper both into the technical reasons and the potential solutions for algorithmic fairness in computer vision. Among other things, we will discuss our most recent work (in submission) on training deep learning models that de-correlate a sensitive attribute (such as race or gender) from the target prediction.</p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:13.91px"><font face="arial, sans-serif"><br></font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:13.91px"><font face="arial, sans-serif">Host: <span style="color:rgb(60,64,67);letter-spacing:0.2px;white-space:pre-wrap"><a href="mailto:greg@ttic.edu" target="_blank">Greg Shakhnarovich</a></span></font></p><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><b><font color="#0b5394">Alicia McClarin</font></b><div><div><font color="#0b5394"><i>Toyota Technological Institute at Chicago</i></font></div><div><div><font color="#0b5394"><i>6045 S. Kenwood Ave., </i></font><i style="color:rgb(11,83,148)">Office 518</i></div><div><i style="color:rgb(11,83,148)">Chicago, IL 60637</i><br></div></div><div><i style="color:rgb(11,83,148)">773-834-3321</i><i style="color:rgb(11,83,148)"><br></i></div><div><a href="http://www.ttic.edu/" target="_blank"><font color="#0b5394"><i>www.ttic.edu</i></font></a></div></div></div></div></div></div></div></div></div></div>