<div dir="ltr"><div class="gmail_default"><div><div><p class="gmail-m_2930526480925356210m_-7284979662171405385gmail-m_-6962899146602748134m_5514982245076379836gmail-m_1303933708664272265gmail-m_5665334593080371447m_-3748643693577471394gmail-m_-4404257975496107222gmail-m_-7206066681144029448gmail-m_-5817829815640557222gmail-m_5987474974647831651gmail-m_-4783362384882292594m_6961031835771836416gmail-m_3149180880964055314gmail-m_5803000941478265060gmail-m_3739772758111120207gmail-m_-4374496420704574181gmail-m_-8232014986225864746gmail-m_2118555233517397122gmail-m_-6347337869693432729gmail-m_9103776001042077600gmail-p1" style="font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;line-height:normal;margin:0px"><font face="arial, helvetica, sans-serif"><b><font style="vertical-align:inherit"><font style="vertical-align:inherit">When:    </font></font></b><font style="vertical-align:inherit"><font style="vertical-align:inherit">  Monday, April 29th at 11:00 am</font></font><br></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, helvetica, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, helvetica, sans-serif"><b><font style="vertical-align:inherit"><font style="vertical-align:inherit">Where:     </font></font></b><font style="vertical-align:inherit"><font style="vertical-align:inherit">TTIC, 6045 S. Kenwood Avenue, 5th Floor, Room 526</font></font></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, helvetica, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, helvetica, sans-serif"><b><font style="vertical-align:inherit"><font style="vertical-align:inherit">Who:        </font></font></b><span class="gmail-il">Bharath</span> Hariharan, Cornell University</font></p></div></div></div><div class="gmail_default"><b style="color:rgb(33,33,33);font-size:13px"><br></b></div><div class="gmail_default"><b style="color:rgb(33,33,33);font-size:13px">Title:         </b>Visual Learning with Fewer Labels</div><div class="gmail_default"><p class="gmail-m_2930526480925356210m_-7284979662171405385gmail-m_-6962899146602748134m_5514982245076379836gmail-m_1303933708664272265gmail-m_5665334593080371447m_-3748643693577471394gmail-m_-4404257975496107222gmail-m_-7206066681144029448gmail-m_-5817829815640557222gmail-m_-5680779581752768105inbox-inbox-m_2981149214989969629inbox-inbox-p1" style="color:rgb(33,33,33)"><b>Abstract:</b>  <span style="color:rgb(34,34,34)">The performance of recognition systems has grown by leaps and bounds these last 5 years. However, modern recognition systems still require thousands of examples per class to train. Furthermore, expanding the capabilities of the system by introducing new visual concepts again requires collecting thousands of examples for the new concept. In contrast, humans are known to quickly learn new visual concepts from as few as 1 example, and indeed require very little labeled data to build their powerful visual systems from scratch. The requirement for large training sets also makes it infeasible to use current machine vision systems for rare or hard-to-annotate visual concepts or new imaging modalities.</span></p><p class="MsoNormal"><u></u></p><p class="MsoNormal"><u></u><u></u></p><p class="MsoNormal">I will talk about some of our work on reducing this need for large labeled training sets. This will include three broad directions: new ways of learning feature representations, new learnt data augmentation strategies, and new possibilities for re-thinking the problem setup, all with the aim of reducing the annotation cost for building new recognition systems. I will also discuss how this question of supervision plays out for other “richer” computer vision tasks beyond image classification, and how thinking carefully about how we teach machines to do tasks can lead to rich dividends.</p><p class="gmail-m_2930526480925356210m_-7284979662171405385gmail-m_-6962899146602748134m_5514982245076379836gmail-m_1303933708664272265gmail-m_5665334593080371447m_-3748643693577471394gmail-m_-4404257975496107222gmail-m_-7206066681144029448gmail-m_-5817829815640557222gmail-m_-5680779581752768105inbox-inbox-m_2981149214989969629inbox-inbox-p1" style="color:rgb(33,33,33)"><b>Host: </b><font face="arial, helvetica, sans-serif"><a href="mailto:greg@ttic.edu" target="_blank">Greg Shakhnarovich</a></font></p></div><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><b><font color="#0b5394">Alicia McClarin</font></b><div><div><font color="#0b5394"><i>Toyota Technological Institute at Chicago</i></font></div><div><div><font color="#0b5394"><i>6045 S. Kenwood Ave., </i></font><i style="color:rgb(11,83,148)">Office 510</i></div><div><font color="#0b5394"><i>Chicago, IL 60637</i></font></div><div><font color="#0b5394"><i>773-702-5370</i></font></div></div><div><a href="http://www.ttic.edu/" target="_blank"><font color="#0b5394"><i>www.ttic.edu</i></font></a></div></div></div></div></div></div></div></div>