<div dir="ltr"><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">---------- Forwarded message ---------<br>From: <strong class="gmail_sendername" dir="auto">Jake Chanenson</strong> <span dir="auto"><<a href="mailto:jchanen1@uchicago.edu">jchanen1@uchicago.edu</a>></span><br>Date: Wed, Apr 27, 2022 at 9:47 AM<br>Subject: [hciclub] Shalaleh Rismani on How Do AI Systems "Break" Socially and Ethically TODAY 12:30-1:30<br>To:  <<a href="mailto:hciclub@lists.uchicago.edu">hciclub@lists.uchicago.edu</a>><br></div><br><br><div dir="ltr"><div>Hey everyone,</div><div><br></div><div>Just a final reminder for today's talk on <b>April 27th from 12:30-1:30pm</b> with 
<a href="https://urldefense.com/v3/__http://shalalehrismani.com/about/__;!!BpyFHLRN4TMTrA!_8uy7GzYl-6KUDnH4DM9YA4x2WV8Og9of6GXHaeU-cLeD2oxzYFqA7QjTbFlGcJiWfNn0NIZtWhYeeH5mVJKP9Q7Sw$" target="_blank"><span>Shalaleh</span> Rismani</a>

</div><div><br></div>
<div><i>Talk Title: </i><b>
How Do AI Systems "break" Socially and Ethically

</b></div><div><br></div><div><i>Talk Abstract:
</i><font face="arial, sans-serif">Failure Mode and Effect Analysis (FMEA) has been used as an
engineering risk assessment tool since 1949. FMEAs are effective in pre-emptively
identifying and addressing how a device might fail and are often used in the
design of high-risk technology applications such as military, automotive, and
medical industries. In this talk, we explore how FMEAs can be used to identify social
and ethical failures of Artificial Intelligent Systems (AISs) when it is interacting
with a human partner. I will begin by proposing a process for developing a Social
FMEAs (So-FMEAs) by building on the existing FMEA framework and the concept of
Social Failure Modes coined by Millar. Using this proposed process, I will
discuss a simple proof-of-concept focusing on failures in human-AI interaction.</font><i>

</i></div><div><br></div><div><i>Speaker Bio:</i><font face="arial, sans-serif"> <span>Shalaleh</span> is a PhD candidate in 
electrical and computer engineering at McGill University and Mila where 
she works on interdisciplinary research challenges with my colleagues at
 the Responsible Autonomy and Intelligent Systems Ethics (RAISE Lab). 
Her current research focuses on how development teams can characterize, 
identify and mitigate social and ethical failures of machine learning 
(ML) systems as early as possible in the ML development process. 
Moreover, she is interested in investigating how these types of failures
 reveal themselves in human-ML interactions. Prior to starting her PhD, 
she co-founded Generation R consulting, a boutique AI ethics consultancy
 and was a design researcher with Open Roboethics Institute, on a full 
time basis.</font><font face="arial, sans-serif"><br></font></div><div><font face="arial, sans-serif"><br></font></div><div><font face="arial, sans-serif">
<font face="arial, sans-serif">She is currently the executive director at the <a href="https://urldefense.com/v3/__http://www.openroboethics.org__;!!BpyFHLRN4TMTrA!pWHsFjZVcNgOI_l6zo69NyBiPm2YUGt-CX7oJTf5sQkf3rWroC1GISAo2URxrKWBKF7Y$" target="_blank">Open Roboethics Institute (ORI)</a>,
 previously Open Roboethics initiative (ORi) which was established in 
2012. ORI is a Canadian not for profit organization focusing on 
education and public engagement initiatives. </font>

</font></div>

<div><br></div><div><br></div><div>
<div>Zoom Link For Talk: <a href="https://urldefense.com/v3/__https://uchicago.zoom.us/j/99795377041__;!!BpyFHLRN4TMTrA!p20fTTHinpfgvjmEUtOHM1OimwgqMz-fthlpAg1ZglFAGqW75ydF67-N_W4sxHVw2aU7$" target="_blank">https://uchicago.zoom.us/j/99795377041</a></div><div>Password: hci</div>

</div><div><br>-- <br><div dir="ltr" data-smartmail="gmail_signature"><div dir="ltr"><div dir="auto" style="color:rgb(0,0,0)"><div><font size="2"><span style="font-family:garamond,times new roman,serif">G. Jake Chanenson<br></span></font></div><div><font size="2"><span style="font-family:garamond,times new roman,serif"><a href="https://urldefense.com/v3/__https://www.mypronouns.org/they-them__;!!BpyFHLRN4TMTrA!_8uy7GzYl-6KUDnH4DM9YA4x2WV8Og9of6GXHaeU-cLeD2oxzYFqA7QjTbFlGcJiWfNn0NIZtWhYeeH5mVLkOCilBw$" target="_blank">They</a>/<a href="https://urldefense.com/v3/__https://www.mypronouns.org/he-him__;!!BpyFHLRN4TMTrA!_8uy7GzYl-6KUDnH4DM9YA4x2WV8Og9of6GXHaeU-cLeD2oxzYFqA7QjTbFlGcJiWfNn0NIZtWhYeeH5mVIaSTVE1w$" target="_blank">He</a></span></font></div><font size="2"><span style="font-family:garamond,times new roman,serif">PhD Student</span></font></div><div style="font-family:Helvetica;font-size:12px;color:rgb(0,0,0)"><font size="2"><span style="font-family:garamond,times new roman,serif">CS | The University of Chicago</span></font><br></div><span style="font-family:Helvetica;font-size:12px;color:rgb(0,0,0)"></span><br style="color:rgb(0,0,0);font-family:Helvetica;font-size:12px"><span style="color:rgb(0,0,0);font-family:Helvetica;font-size:12px"></span><span style="color:rgb(34,34,34)"></span><br></div></div></div></div>
</div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><i style="font-size:12.8px">Rob Mitchum</i></div><div dir="ltr"><i>Associate Director of Communications for Data Science and Computing<br></i><div style="font-size:12.8px"><i style="font-size:12.8px">University of Chicago</i><br></div><div style="font-size:12.8px"><i style="font-size:12.8px"><a href="mailto:rmitchum@ci.uchicago.edu" target="_blank">rmitchum@uchicago.edu</a></i><br></div><div style="font-size:12.8px"><i style="font-size:12.8px">773-484-9890</i><br></div></div></div></div></div></div></div></div></div>