<div dir="ltr"><div><div class="gmail_default" style=""><font face="georgia, serif" style="" color="#000000"><strong style="">Who: </strong>Pushkar Shukla, TTIC</font></div><p><font face="georgia, serif" color="#000000"><strong>When: </strong>Tuesday, July 29 2025 from 11:00 am -1:00 pm CT <br></font></p><p><font face="georgia, serif" color="#000000"><strong>Location: TTIC , 6045 South Kenwood Avenue, 5th Floor Room 530</strong><br></font></p><p><b><font face="georgia, serif" color="#000000">Virtually: via <a href="https://us02web.zoom.us/j/9271945247?pwd=UVJ4TmVqVUJPc0gxbkRRY3pXV2lZUT09&omn=81415756789" target="_blank">Zoom</a></font></b></p><p><font face="georgia, serif" color="#000000"><strong>Title:</strong> Understanding and evaluating computer vision models through the lens of counterfactuals</font></p><p><font face="georgia, serif" color="#000000"><strong>Abstract: </strong>As machine learning systems increasingly influence decisions in critical areas such as healthcare, finance, and creative industries, there is a growing need to understand how these models make decisions and whether those decisions are fair and trustworthy. This thesis investigates computer vision models through the framework of counterfactual reasoning — systematically varying specific attributes while holding others fixed to evaluate model behavior, biases, and assumptions.</font></p><p><font face="georgia, serif" color="#000000">Across several contributions, this work advances methods to (1) quantify the influence of human-defined concepts on model decisions (CAVLI), (2) mitigate bias through adversarially generated counterfactuals (ASAC), (3) dynamically evaluate biases in text-to-image generative models (TIBET), and (4) diagnose and mitigate intersectional biases through causal interventions (BiasConnect and InterMit). Together, these contributions demonstrate how counterfactual reasoning provides a unified, interpretable, and practically useful toolkit for auditing and improving computer vision models.</font></p><p><font face="georgia, serif" color="#000000">The defense will present a detailed exploration of these methods, experimental results across classification and generative tasks, and broader reflections on fairness, explainability, and the future of trustworthy AI in vision systems.</font></p><p><font face="georgia, serif" color="#000000"><strong>Committee:</strong><br>Prof. Prof Matthew Turk (Chair), TTIC<br>Prof. Prof Matthew Walter , TTIC<br>Prof. Professor Leonid Sigal<span class="gmail_default" style="">, UBC</span></font></p><br clear="all"></div><div><br></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><b style="background-color:rgb(255,255,255)"><font color="#3d85c6">Brandie Jones </font></b><div><div><div><font color="#3d85c6"><b><i>Executive </i></b></font><b style="color:rgb(61,133,198)"><i>Administrative Assistant</i></b></div></div><div><span style="background-color:rgb(255,255,255)"><font color="#3d85c6">Toyota Technological Institute</font></span></div><div><span style="background-color:rgb(255,255,255)"><font color="#3d85c6">6045 S. Kenwood Avenue</font></span></div><div><span style="background-color:rgb(255,255,255)"><font color="#3d85c6">Chicago, IL  60637</font></span></div></div><div><span style="background-color:rgb(255,255,255)"><font color="#3d85c6"><a href="http://www.ttic.edu" target="_blank">www.ttic.edu</a> </font></span></div><div><span style="background-color:rgb(255,255,255)"><font color="#3d85c6"><br></font></span></div></div></div></div>