<div dir="ltr"><div class="gmail_default" style="font-size:small"><p style="color:rgb(80,0,80);font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;line-height:normal;margin:0px"><font face="arial, sans-serif" color="#000000"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>When:</b>    </font></font><font style="vertical-align:inherit"><font style="vertical-align:inherit">    Wednesday, February 23rd at<b> <span style="background-color:rgb(255,255,0)">11:30 am CT</span></b></font></font><br></font></p><p style="color:rgb(80,0,80);font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;line-height:normal;margin:0px"><br></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;color:rgb(80,0,80);line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="color:rgb(0,0,0);vertical-align:inherit"><font style="vertical-align:inherit"><b>Where:</b>       </font></font>Zoom Virtual Talk (<b><a href="https://uchicagogroup.zoom.us/webinar/register/WN_yKWbvEQwQeCV4yigQ9Uwbg" target="_blank"><font color="#0000ff">register in advance here</font></a></b>)</font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;color:rgb(80,0,80);line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><br></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;color:rgb(80,0,80);line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><font color="#000000"><b>Who: </b> </font><font color="#500050">    </font><font color="#000000">    </font></font></font></font><span style="color:rgb(34,34,34)">Shu Kong, Carnegie Mellon University</span></p></div><div><div dir="ltr" data-smartmail="gmail_signature"><div dir="ltr"><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><br></span></div><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><br></span></div><div><font face="arial, sans-serif"><span class="gmail-im" style="color:rgb(80,0,80)"><b style="">Title<span class="gmail_default" style="">:          </span></b>Open-World Visual Perception<br><br><b style="">Abstract<span class="gmail_default" style="">: </span></b></span>Visual perception is indispensable in numerous applications such as autonomous vehicles. Today's visual perception algorithms are often developed under a closed-world paradigm, which assumes the data distribution and categorical labels are fixed a priori. This assumption is unrealistic in the real open world, which contains situations that are dynamic and unpredictable. As a result, closed-world visual perception systems appear to be brittle in the open-world. For example, autonomous vehicles with such systems could fail to recognize a never-before-seen overturned truck and crash into it. We are motivated to ask how to (1) detect all the object instances in the image, and (2) recognize the unknowns. In this talk, I will present my solutions and introduce more research topics in the direction of Open-World Visual Perception.<br style=""><br style=""><b style="">Bio<span class="gmail_default" style="">: </span></b><span class="gmail-il" style="">Shu</span> <span class="gmail-il" style="">Kong</span> is a Postdoctoral Fellow in the Robotics Institute at Carnegie-Mellon University, supervised by Prof. Deva Ramanan. He earned a Ph.D. in Computer Science at the University of California-Irvine, advised by Prof. Charless Fowlkes. His research interests span computer vision and machine learning, and their applications to autonomous vehicles and natural science. His current research focuses on Open-World Visual Perception. His recent paper on this topic received Best Paper / Marr Prize Honorable Mention at ICCV 2021. He regularly serves on the program committee in major conferences of computer vision and machine learning. He also serves as the lead organizer of workshops on Open-World Visual Perception at CVPR 2021 and 2022. His latest interdisciplinary research includes building a high-throughput pollen analysis system, which was featured by the National Science Foundation as that "opens a new era of fossil pollen research".</font><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><br></span></div><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><br></span></div><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><b>H</b><span class="gmail_default" style="font-size:small"><b>ost:</b> <a href="mailto:greg@ttic.edu"><b>Greg Shakhnarovich</b></a></span></span></div><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><br></span></div><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><br></span></div><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small"><br></span></div><div><span style="font-family:arial,helvetica,sans-serif;font-size:x-small">Mary C. Marre</span><br></div><div><div><font face="arial, helvetica, sans-serif" size="1">Faculty Administrative Support</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6" size="1"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6" size="1">6045 S. Kenwood Avenue</font></i></div><div><font size="1"><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i><br></font></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif" size="1">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div>