<div dir="ltr"><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal">When:     <span class="gmail-il">Friday</span>, January 6th at noon </p><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal"> </p><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal">Where:    TTIC, 6045 S Kenwood Avenue, 5th Floor, Room 526</p><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal"> </p><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal">Who:       Ayan Chakrabarti; TTIC</p><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal"> </p><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><br></p><div style="font-size:12.8px">Title:       Machine Learning for Measurement and Inference from Visual Data</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Abstract: Computer vision systems seek to make sense of the physical world and recover scene attributes---like shape, geometry, motion, material, and object identity---from visual measurements. As an estimation problem, this is ill-posed since the light reflected from objects in a scene carries only indirect information about these attributes, and there are typically infinitely many physically plausible explanations for any given captured image or video. Vision systems must rely heavily on leveraging the statistics of natural scenes using machine learning tools, to design not just accurate estimation algorithms, but also optimal measurement strategies.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">In the first part of the talk, I will talk about a structured inference approach to the recovery continuous-valued maps of per-point scene properties---like depth, surface normals, surface reflectance, motion, etc.---from images. Such scene-value maps typically exhibit significant spatial structure (planarity, rigidity, etc.), and leveraging this structure during inference can lead to more accurate estimates. In this context, I will describe recently proposed method for estimating scene depth from a single color image, which trains a neural network to produce dense probabilistic estimates of different elements of local geometric structure, and then harmonizes these estimates to produce a consistent depth map.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">While a major focus of computer vision is developing effective inference methods for images from a traditional camera, in the second half of the talk I will discuss whether we can redesign the camera itself to make measurements that are optimal for inference. In particular, I will talk about a machine-learning approach to automatically "learning" the camera's optical design jointly with the computational method for inference. Using color imaging as an example task, I will introduce a framework where the camera sensor's measurement process is encoded as a neural-network layer, whose learnable weights parameterize the possible measurement choices for the sensor. This measurement layer is then trained end-to-end with a neural network that carries out inference on the corresponding measurements, to maximize the accuracy of the final output. I'll show that this approach is able to automatically discover a measurement strategy that, when used with the jointly learned inference network, significantly outperforms traditional sensor designs.</div><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"> </p><p class="MsoNormal" style="margin-bottom:0.0001pt;font-size:12.8px;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><br></p><div style="font-size:12.8px">******************************<wbr>******************************<wbr>******************************<wbr>**********************</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><div class="gmail_default" style="font-size:12.8px"><b><font face="arial, helvetica, sans-serif">Research at TTIC Seminar Series</font></b></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif"> </font></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif">TTIC is hosting a weekly seminar series presenting the research currently underway at the Institute. Every week a different TTIC faculty member will present their research.  The lectures are intended both for students seeking research topics and adviser, and for the general TTIC and University of Chicago communities interested in hearing what their colleagues are up to.   </font></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif"> </font></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif">To receive announcements about the seminar series, please subscribe to the mailing list: <a href="https://groups.google.com/a/ttic.edu/group/talks/subscribe" target="_blank">https://groups.google.co<wbr>m/a/ttic.edu/group/<span class="gmail-m_-8247393949946928606gmail-m_-8480526344443392316gmail-m_-1056553444316568634gmail-m_593248408351034154gmail-m_8873931552348078312gmail-m_-3900280345830708483gmail-m_2412953322955092339gmail-m_-3568727914368024249gmail-m_-7538648194147727859gmail-il"><span class="gmail-m_-8247393949946928606gmail-m_-8480526344443392316gmail-m_-1056553444316568634gmail-m_593248408351034154gmail-m_8873931552348078312gmail-m_-3900280345830708483gmail-m_2412953322955092339gmail-m_-3568727914368024249gmail-il"><span class="gmail-il">talks</span></span></span>/subsc<wbr>ribe</a></font></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><br></font></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif">Speaker details can be found at: <a href="http://www.ttic.edu/tticseminar.php" target="_blank">http://www.ttic.edu/tticse<wbr>minar.php</a>.</font></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif"> </font></div><div class="gmail_default" style="font-size:12.8px"><font face="arial, helvetica, sans-serif">For additional questions, please contact Nathan Srebro at <a href="mailto:mcallester@ttic.edu" target="_blank">nati@ttic.edu</a> </font></div><div><font face="arial, helvetica, sans-serif"><br></font></div><div><font face="arial, helvetica, sans-serif"><br></font></div><div><font face="arial, helvetica, sans-serif"><br></font></div><div><font face="arial, helvetica, sans-serif"><br></font></div></div><div><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="arial, helvetica, sans-serif">Mary C. Marre</font><div><font face="arial, helvetica, sans-serif">Administrative Assistant</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">6045 S. Kenwood Avenue</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Room 504</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i></div><div><i><font face="arial, helvetica, sans-serif">p:(773) 834-1757</font></i></div><div><i><font face="arial, helvetica, sans-serif">f: (773) 357-6970</font></i></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div></div></div></div></div>
</div>