<div dir="ltr"><div style="font-size:12.8px"><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><span style="font-size:12.8px">When:</span><b style="font-size:12.8px"> </b><span style="font-size:12.8px">    </span><span style="font-size:12.8px">Monday, June 12th at 11:00 a.m.</span><span style="font-size:12.8px"> </span><br></font></div><div dir="ltr"><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><br></font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif">Where:    TTIC, 6045 S. Kenwood Avenue, 5th Floor, Room 526</font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><br></font></div><div><font face="arial, helvetica, sans-serif" style="font-size:12.8px">Who:       </font><span style="font-size:12.8px;color:rgb(0,0,0)">Erik Learned-Miller, </span><font color="#000000">University of Massachusetts</font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif" style="font-size:12.8px"><br></font></div></div></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Title:       Learning by Moving and by Clustering Movie Characters</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Abstract:</div><div style="font-size:12.8px">I will present two mini-talks. </div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Part 1: We present an end-to-end system for detecting and clustering faces by identity in full-length  movies. Unlike works that start with a predefined set of detected faces, we consider the end-to-end problem of detection and clustering together. We make three separate contributions. First, we combine a state-of-the-art face detector with a generic tracker to extract high quality face tracklets. We then introduce a novel clustering method, motivated by classic results in graph theory. It is based on the observation that  large clusters can be fully connected by joining just a small fraction of their point pairs, while just a single connection between two different people can lead to poor clustering results. This suggests clustering using a verification system with {\em very few false positives} but perhaps moderate recall. We introduce such a verification procedure with good recall in the low false-positive regime, based on features from the analysis of differences (FAD).  Finally, we define a novel end-to-end detection and clustering evaluation metric allowing us to assess the accuracy of the entire end-to-end system.  We present state-of-the-art results on multiple video data sets and also on standard face databases.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Part 2:  I will discuss our work in motion segmentation, based on the geometry of perspective projection and an EM-style approach to modeling the motion field. Our model takes as input *only the optical flow* and segments the image into moving parts based on the optical flow. Because it does not rely on the difference in appearance between the background and various moving objects, it is able to handle extremely difficult cases of motion segmentation, such as those involving camouflaged animals. I will also talk recent efforts, collaborating with Greg Shakhnavorich, Gustav Larsson, and Michael Maire, to use motion segmentation in an automatic supervision scheme, where a network is trained to predict depth from a single image, using our motion segmentation system (and subsequent calculation of depth fields) as “automatic supervision”. We show the benefit of such an approach for pre-training a network to solve semantic segmentation problems.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Host:<a href="mailto:greg@ttic.edu" target="_blank"> Greg Shakhnarovich</a></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><div dir="ltr" style="font-size:12.8px"><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px">For more information on the </span><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px">colloquium</span><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px"> series or to subscribe to the mailing list, please see </span><a href="http://www.ttic.edu/colloquium.php" target="_blank" style="font-family:arial,helvetica,sans-serif;font-size:12.8px">http://www.ttic.edu/colloq<wbr>uium.php</a></div></div><div style="font-size:12.8px"><br></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="arial, helvetica, sans-serif">Mary C. Marre</font><div><font face="arial, helvetica, sans-serif">Administrative Assistant</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">6045 S. Kenwood Avenue</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Room 504</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i></div><div><i><font face="arial, helvetica, sans-serif">p:(773) 834-1757</font></i></div><div><i><font face="arial, helvetica, sans-serif">f: (773) 357-6970</font></i></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div></div></div></div></div>
<br><div class="gmail_quote">On Sun, Jun 11, 2017 at 10:18 PM, Mary Marre <span dir="ltr"><<a href="mailto:mmarre@ttic.edu" target="_blank">mmarre@ttic.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div style="font-size:12.8px"><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><span style="font-size:12.8px">When:</span><b style="font-size:12.8px"> </b><span style="font-size:12.8px">    </span><span style="font-size:12.8px">Monday, June 12th at 11:00 a.m.</span><span style="font-size:12.8px"> </span><br></font></div><div dir="ltr"><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><br></font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif">Where:    TTIC, 6045 S. Kenwood Avenue, 5th Floor, Room 526</font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><br></font></div><div><font face="arial, helvetica, sans-serif" style="font-size:12.8px">Who:       </font><span style="font-size:12.8px;color:rgb(0,0,0)">Erik Learned-Miller, </span><font color="#000000">University of Massachusetts</font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif" style="font-size:12.8px"><br></font></div></div></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Title:       Learning by Moving and by Clustering Movie Characters</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Abstract:</div><div style="font-size:12.8px">I will present two mini-talks. </div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Part 1: We present an end-to-end system for detecting and clustering faces by identity in full-length  movies. Unlike works that start with a predefined set of detected faces, we consider the end-to-end problem of detection and clustering together. We make three separate contributions. First, we combine a state-of-the-art face detector with a generic tracker to extract high quality face tracklets. We then introduce a novel clustering method, motivated by classic results in graph theory. It is based on the observation that  large clusters can be fully connected by joining just a small fraction of their point pairs, while just a single connection between two different people can lead to poor clustering results. This suggests clustering using a verification system with {\em very few false positives} but perhaps moderate recall. We introduce such a verification procedure with good recall in the low false-positive regime, based on features from the analysis of differences (FAD).  Finally, we define a novel end-to-end detection and clustering evaluation metric allowing us to assess the accuracy of the entire end-to-end system.  We present state-of-the-art results on multiple video data sets and also on standard face databases.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Part 2:  I will discuss our work in motion segmentation, based on the geometry of perspective projection and an EM-style approach to modeling the motion field. Our model takes as input *only the optical flow* and segments the image into moving parts based on the optical flow. Because it does not rely on the difference in appearance between the background and various moving objects, it is able to handle extremely difficult cases of motion segmentation, such as those involving camouflaged animals. I will also talk recent efforts, collaborating with Greg Shakhnavorich, Gustav Larsson, and Michael Maire, to use motion segmentation in an automatic supervision scheme, where a network is trained to predict depth from a single image, using our motion segmentation system (and subsequent calculation of depth fields) as “automatic supervision”. We show the benefit of such an approach for pre-training a network to solve semantic segmentation problems.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Host:<a href="mailto:greg@ttic.edu" target="_blank"> Greg Shakhnarovich</a></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><div dir="ltr" style="font-size:12.8px"><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px">For more information on the </span><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px">colloquium</span><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px"> series or to subscribe to the mailing list, please see </span><a href="http://www.ttic.edu/colloquium.php" style="font-family:arial,helvetica,sans-serif;font-size:12.8px" target="_blank">http://www.ttic.edu/colloq<wbr>uium.php</a></div></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><br></div><div class="gmail_extra"><br clear="all"><div><div class="m_4386700139969348751gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="arial, helvetica, sans-serif">Mary C. Marre</font><div><font face="arial, helvetica, sans-serif">Administrative Assistant</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">6045 S. Kenwood Avenue</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Room 504</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i></div><div><i><font face="arial, helvetica, sans-serif">p:<a href="tel:(773)%20834-1757" value="+17738341757" target="_blank">(773) 834-1757</a></font></i></div><div><i><font face="arial, helvetica, sans-serif">f: <a href="tel:(773)%20357-6970" value="+17733576970" target="_blank">(773) 357-6970</a></font></i></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div></div></div></div></div>
<br><div class="gmail_quote">On Mon, Jun 5, 2017 at 7:46 PM, Mary Marre <span dir="ltr"><<a href="mailto:mmarre@ttic.edu" target="_blank">mmarre@ttic.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><span style="font-size:12.8px">When:</span><b style="font-size:12.8px"> </b><span style="font-size:12.8px">    </span><span style="font-size:12.8px">Monday, June 12th at 11:00 a.m.</span><span style="font-size:12.8px"> </span><br></font></div><div dir="ltr"><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><br></font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif">Where:    TTIC, 6045 S. Kenwood Avenue, 5th Floor, Room 526</font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif"><br></font></div><div><font face="arial, helvetica, sans-serif" style="font-size:12.8px">Who:       </font><span style="font-size:12.8px;color:rgb(0,0,0)">Erik Learned-Miller, </span><font color="#000000"><span style="font-size:12.8px">University of Massachusetts</span></font></div><div style="font-size:12.8px"><font face="arial, helvetica, sans-serif" style="font-size:12.8px"><br></font></div></div></div><div><br></div><div>Title:       Learning by Moving and by Clustering Movie Characters</div><div><br></div><div>Abstract:</div><div>I will present two mini-talks. </div><div><br></div><div>Part 1: We present an end-to-end system for detecting and clustering faces by identity in full-length  movies. Unlike works that start with a predefined set of detected faces, we consider the end-to-end problem of detection and clustering together. We make three separate contributions. First, we combine a state-of-the-art face detector with a generic tracker to extract high quality face tracklets. We then introduce a novel clustering method, motivated by classic results in graph theory. It is based on the observation that  large clusters can be fully connected by joining just a small fraction of their point pairs, while just a single connection between two different people can lead to poor clustering results. This suggests clustering using a verification system with {\em very few false positives} but perhaps moderate recall. We introduce such a verification procedure with good recall in the low false-positive regime, based on features from the analysis of differences (FAD).  Finally, we define a novel end-to-end detection and clustering evaluation metric allowing us to assess the accuracy of the entire end-to-end system.  We present state-of-the-art results on multiple video data sets and also on standard face databases.</div><div><br></div><div>Part 2:  I will discuss our work in motion segmentation, based on the geometry of perspective projection and an EM-style approach to modeling the motion field. Our model takes as input *only the optical flow* and segments the image into moving parts based on the optical flow. Because it does not rely on the difference in appearance between the background and various moving objects, it is able to handle extremely difficult cases of motion segmentation, such as those involving camouflaged animals. I will also talk recent efforts, collaborating with Greg Shakhnavorich, Gustav Larsson, and Michael Maire, to use motion segmentation in an automatic supervision scheme, where a network is trained to predict depth from a single image, using our motion segmentation system (and subsequent calculation of depth fields) as “automatic supervision”. We show the benefit of such an approach for pre-training a network to solve semantic segmentation problems.</div><div><br></div><div><br></div><div>Host:<a href="mailto:greg@ttic.edu" target="_blank"> Greg Shakhnarovich</a></div><div><br></div><div><br></div><div><br></div><div><div dir="ltr" style="font-size:12.8px"><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px">For more information on the </span><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px">colloquium</span><span style="font-family:arial,helvetica,sans-serif;font-size:12.8px"> series or to subscribe to the mailing list, please see </span><a href="http://www.ttic.edu/colloquium.php" style="font-family:arial,helvetica,sans-serif;font-size:12.8px" target="_blank">http://www.ttic.edu/colloq<wbr>uium.php</a></div></div><div><br></div><div><br></div><div><br></div><div><div class="m_4386700139969348751m_2527805660716545895gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="arial, helvetica, sans-serif">Mary C. Marre</font><div><font face="arial, helvetica, sans-serif">Administrative Assistant</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">6045 S. Kenwood Avenue</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Room 504</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i></div><div><i><font face="arial, helvetica, sans-serif">p:<a href="tel:(773)%20834-1757" value="+17738341757" target="_blank">(773) 834-1757</a></font></i></div><div><i><font face="arial, helvetica, sans-serif">f: <a href="tel:(773)%20357-6970" value="+17733576970" target="_blank">(773) 357-6970</a></font></i></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div></div></div></div></div>
</div>
</blockquote></div><br></div></div>
</blockquote></div><br></div></div>