<div dir="ltr"><div><i>UChicago HCI Club Seminar</i></div><div><br></div>Shalaleh Rismani<div>PhD Candidate</div><div>McGill University</div><div><br></div><div><b>Wednesday, April 27th</b></div><div><b>12:30-1:30pm<br></b></div><div><b>Remote (Zoom info below)</b></div><div><br></div><div><div><b>How Do AI Systems "break" Socially and Ethically</b></div><div><br></div><div><div><font face="arial, sans-serif">Failure Mode and Effect Analysis (FMEA) has been used as an engineering risk assessment tool since 1949. FMEAs are effective in pre-emptively identifying and addressing how a device might fail and are often used in the design of high-risk technology applications such as military, automotive, and medical industries. In this talk, we explore how FMEAs can be used to identify social and ethical failures of Artificial Intelligent Systems (AISs) when it is interacting with a human partner. I will begin by proposing a process for developing a Social FMEAs (So-FMEAs) by building on the existing FMEA framework and the concept of Social Failure Modes coined by Millar. Using this proposed process, I will discuss a simple proof-of-concept focusing on failures in human-AI interaction.</font><i></i></div><div><i><br></i></div><div><i>Bio:</i><font face="arial, sans-serif"> Shalaleh is a PhD candidate in electrical and computer engineering at McGill University and Mila where she works on interdisciplinary research challenges with my colleagues at the Responsible Autonomy and Intelligent Systems Ethics (RAISE Lab). Her current research focuses on how development teams can characterize, identify and mitigate social and ethical failures of machine learning (ML) systems as early as possible in the ML development process. Moreover, she is interested in investigating how these types of failures reveal themselves in human-ML interactions. Prior to starting her PhD, she co-founded Generation R consulting, a boutique AI ethics consultancy and was a design researcher with Open Roboethics Institute, on a full time basis.</font><br></div><div><font face="arial, sans-serif"><br></font></div><div><font face="arial, sans-serif"><font face="arial, sans-serif">She is currently the executive director at the <a href="https://urldefense.com/v3/__http://www.openroboethics.org__;!!BpyFHLRN4TMTrA!pWHsFjZVcNgOI_l6zo69NyBiPm2YUGt-CX7oJTf5sQkf3rWroC1GISAo2URxrKWBKF7Y$" target="_blank">Open Roboethics Institute (ORI)</a>, previously Open Roboethics initiative (ORi) which was established in 2012. ORI is a Canadian not for profit organization focusing on education and public engagement initiatives. </font></font></div><div><br></div><div>This talk is remote.<br></div><div><div>Zoom Link For Talk: <a href="https://urldefense.com/v3/__https://uchicago.zoom.us/j/99795377041__;!!BpyFHLRN4TMTrA!p20fTTHinpfgvjmEUtOHM1OimwgqMz-fthlpAg1ZglFAGqW75ydF67-N_W4sxHVw2aU7$" target="_blank">https://uchicago.zoom.us/j/99795377041</a></div><div>Password: hci</div></div></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><i style="font-size:12.8px">Rob Mitchum</i></div><div dir="ltr"><i>Associate Director of Communications for Data Science and Computing<br></i><div style="font-size:12.8px"><i style="font-size:12.8px">University of Chicago</i><br></div><div style="font-size:12.8px"><i style="font-size:12.8px"><a href="mailto:rmitchum@ci.uchicago.edu" target="_blank">rmitchum@uchicago.edu</a></i><br></div><div style="font-size:12.8px"><i style="font-size:12.8px">773-484-9890</i><br></div></div></div></div></div></div></div></div></div></div>