<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-size:small"><div class="gmail_default"><p style="font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;line-height:normal;margin:0px"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>When:</b>    </font></font><font style="vertical-align:inherit"><font style="vertical-align:inherit">  Monday, November 2nd, at <b>11:10 am</b> CT</font></font><br></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>Where:</b>     </font></font><font color="#000000">Zoom Virtual Talk (</font><b><font color="#0000ff"><a href="https://uchicagogroup.zoom.us/webinar/register/WN_mTNNuneYQQuXfXTVaI02og" target="_blank">register in advance here</a></font></b><font color="#000000">)</font></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>Who: </b>       </font></font></font>Jeannette Bohg, Stanford University</p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><b><font face="arial, sans-serif"><br></font></b></span></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><b><font face="arial, sans-serif"><br></font></b></span></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><span style="color:rgba(0,0,0,0.9)"><b>Title:</b> </span>Scaffolding, Abstraction and Learning from Demonstration - A Route to Robot Learning<span style="color:rgba(0,0,0,0.9)">   </span></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><font face="arial, sans-serif"><br></font></span></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"><b>Abstract:</b> Learning contact-rich, robotic manipulation skills is a challenging problem due to the high-dimensionality of the state and action space as well as uncertainty from noisy sensors and inaccurate motor control. In this talk, I want to show how principles of human learning can be transferred to robots to combat these factors and achieve more robust manipulation in a variety of tasks. The first principle is scaffolding. Humans actively exploit contact constraints in the environment. By adopting a similar strategy, robots can also achieve more robust manipulation. In this talk, I will present an approach that enables a robot to autonomously modify its environment and thereby discover how to ease manipulation skill learning. Specifically, we provide the robot with fixtures that it can freely place within the environment. These fixtures provide hard constraints that limit the outcome of robot actions. Thereby, they funnel uncertainty from perception and motor control and scaffold manipulation skill learning. We show that manipulation skill learning is dramatically sped up through this way of scaffolding.</font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif">The second principle is abstraction - in this case of manipulation skills. Humans have gradually developed language, mastered complex motor skills, created and utilized sophisticated tools. The act of conceptualization is fundamental to these abilities because it allows humans to mentally represent, summarize and abstract diverse knowledge and skills. By means of abstraction, concepts that we learn from a limited number of examples can be extended to a potentially infinite set of new and unanticipated situations. Abstract concepts can also be more easily taught to others by demonstration- the third principle. I will present work that gives robots the ability to acquire a variety of manipulation concepts that act as mental representations of verbs in a natural language instruction. We propose to use learning from human demonstrations of manipulation actions as recorded in large-scale video data sets that are annotated with natural language instructions. In extensive simulation experiments, we show that the policy learned in the proposed way can perform a large percentage of the 78 different manipulation tasks on which it was trained. We show that the policy generalizes over variations of the environment. We also show examples of successful generalization over novel but similar instructions.</font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"><br><b>Bio:</b> Jeannette Bohg is an Assistant Professor of Computer Science at Stanford University. She was a group leader at the Autonomous Motion Department (AMD) of the MPI for Intelligent Systems until September 2017. Before joining AMD in January 2012, Jeannette Bohg was a PhD student at the Division of Robotics, Perception and Learning (RPL) at KTH in Stockholm. In her thesis, she proposed novel methods towards multi-modal scene understanding for robotic grasping. She also studied at Chalmers in Gothenburg and at the Technical University in Dresden where she received her Master in Art and Technology and her Diploma in Computer Science, respectively. Her research focuses on perception and learning for autonomous robotic manipulation and grasping. She is specifically interesting in developing methods that are goal-directed, real-time and multi-modal such that they can provide meaningful feedback for execution and learning. Jeannette Bohg has received several awards, most notably the 2019 IEEE International Conference on Robotics and Automation (ICRA) Best Paper Award, the 2019 IEEE Robotics and Automation Society Early Career Award and the 2017 IEEE Robotics and Automation Letters (RA-L) Best Paper Award.</font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="arial, sans-serif"> </font></p></div><div class="gmail_default"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><br></font></p></div><div class="gmail_default"><font face="arial, sans-serif"><b>Host:</b> <a href="mailto:mwalter@ttic.edu" target="_blank">Matthew Walter</a></font></div><div class="gmail_default"><br></div><div class="gmail_default"><div><font face="arial, sans-serif">For more information on the <i>colloquium</i> series or to subscribe to the mailing list, please see <a href="http://www.ttic.edu/colloquium.php" target="_blank">http://www.ttic.edu/colloquium.php</a>    <br></font></div><div><br style="color:rgb(80,0,80)"></div><div><br></div><div><br></div><div><br></div><div><br></div></div></div><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="arial, helvetica, sans-serif">Mary C. Marre</font><div><font face="arial, helvetica, sans-serif">Faculty Administrative Support</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">6045 S. Kenwood Avenue</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Room 517</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i></div><div><i><font face="arial, helvetica, sans-serif">p:(773) 834-1757</font></i></div><div><i><font face="arial, helvetica, sans-serif">f: (773) 357-6970</font></i></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Nov 1, 2020 at 4:00 PM Mary Marre <<a href="mailto:mmarre@ttic.edu">mmarre@ttic.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div style="font-size:small"><div><p style="font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;line-height:normal;margin:0px"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>When:</b>    </font></font><font style="vertical-align:inherit"><font style="vertical-align:inherit">  Monday, November 2nd, at <b>11:10 am</b> CT</font></font><br></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>Where:</b>     </font></font><font color="#000000">Zoom Virtual Talk (</font><b><font color="#0000ff"><a href="https://uchicagogroup.zoom.us/webinar/register/WN_mTNNuneYQQuXfXTVaI02og" target="_blank">register in advance here</a></font></b><font color="#000000">)</font></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>Who: </b>       </font></font></font>Jeannette Bohg, Stanford University</p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><b><font face="arial, sans-serif"><br></font></b></span></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><b><font face="arial, sans-serif"><br></font></b></span></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><span style="color:rgba(0,0,0,0.9)"><b>Title:</b>        </span>Scaffolding, Abstraction and Learning from Demonstration - A Route to Robot Learning<span style="color:rgba(0,0,0,0.9)">   </span></font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><font face="arial, sans-serif"><br></font></span></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"><b>Abstract:</b> Learning contact-rich, robotic manipulation skills is a challenging problem due to the high-dimensionality of the state and action space as well as uncertainty from noisy sensors and inaccurate motor control. In this talk, I want to show how principles of human learning can be transferred to robots to combat these factors and achieve more robust manipulation in a variety of tasks. The first principle is scaffolding. Humans actively exploit contact constraints in the environment. By adopting a similar strategy, robots can also achieve more robust manipulation. In this talk, I will present an approach that enables a robot to autonomously modify its environment and thereby discover how to ease manipulation skill learning. Specifically, we provide the robot with fixtures that it can freely place within the environment. These fixtures provide hard constraints that limit the outcome of robot actions. Thereby, they funnel uncertainty from perception and motor control and scaffold manipulation skill learning. We show that manipulation skill learning is dramatically sped up through this way of scaffolding.</font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif">The second principle is abstraction - in this case of manipulation skills. Humans have gradually developed language, mastered complex motor skills, created and utilized sophisticated tools. The act of conceptualization is fundamental to these abilities because it allows humans to mentally represent, summarize and abstract diverse knowledge and skills. By means of abstraction, concepts that we learn from a limited number of examples can be extended to a potentially infinite set of new and unanticipated situations. Abstract concepts can also be more easily taught to others by demonstration- the third principle. I will present work that gives robots the ability to acquire a variety of manipulation concepts that act as mental representations of verbs in a natural language instruction. We propose to use learning from human demonstrations of manipulation actions as recorded in large-scale video data sets that are annotated with natural language instructions. In extensive simulation experiments, we show that the policy learned in the proposed way can perform a large percentage of the 78 different manipulation tasks on which it was trained. We show that the policy generalizes over variations of the environment. We also show examples of successful generalization over novel but similar instructions.</font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"><br><b>Bio:</b> Jeannette Bohg is an Assistant Professor of Computer Science at Stanford University. She was a group leader at the Autonomous Motion Department (AMD) of the MPI for Intelligent Systems until September 2017. Before joining AMD in January 2012, Jeannette Bohg was a PhD student at the Division of Robotics, Perception and Learning (RPL) at KTH in Stockholm. In her thesis, she proposed novel methods towards multi-modal scene understanding for robotic grasping. She also studied at Chalmers in Gothenburg and at the Technical University in Dresden where she received her Master in Art and Technology and her Diploma in Computer Science, respectively. Her research focuses on perception and learning for autonomous robotic manipulation and grasping. She is specifically interesting in developing methods that are goal-directed, real-time and multi-modal such that they can provide meaningful feedback for execution and learning. Jeannette Bohg has received several awards, most notably the 2019 IEEE International Conference on Robotics and Automation (ICRA) Best Paper Award, the 2019 IEEE Robotics and Automation Society Early Career Award and the 2017 IEEE Robotics and Automation Letters (RA-L) Best Paper Award.</font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="arial, sans-serif"> </font></p></div><div><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><br></font></p></div><div><font face="arial, sans-serif"><b>Host:</b> <a href="mailto:mwalter@ttic.edu" target="_blank">Matthew Walter</a></font></div><div><br></div><div><div><font face="arial, sans-serif">For more information on the <i>colloquium</i> series or to subscribe to the mailing list, please see <a href="http://www.ttic.edu/colloquium.php" target="_blank">http://www.ttic.edu/colloquium.php</a>    <br></font></div><div><br style="color:rgb(80,0,80)"></div><div><br></div><div><br></div></div></div><div><div dir="ltr"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="arial, helvetica, sans-serif">Mary C. Marre</font><div><font face="arial, helvetica, sans-serif">Faculty Administrative Support</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">6045 S. Kenwood Avenue</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Room 517</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i></div><div><i><font face="arial, helvetica, sans-serif">p:(773) 834-1757</font></i></div><div><i><font face="arial, helvetica, sans-serif">f: (773) 357-6970</font></i></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Oct 26, 2020 at 3:31 PM Mary Marre <<a href="mailto:mmarre@ttic.edu" target="_blank">mmarre@ttic.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><p style="font-size:small;font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;line-height:normal;margin:0px"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>When:</b>    </font></font><font style="vertical-align:inherit"><font style="vertical-align:inherit">  Monday, November 2nd, at <b>11:10 am</b> CT</font></font><br></font></p><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>Where:</b>     </font></font><font color="#000000">Zoom Virtual Talk (</font><b><font color="#0000ff"><a href="https://uchicagogroup.zoom.us/webinar/register/WN_mTNNuneYQQuXfXTVaI02og" target="_blank">register in advance here</a></font></b><font color="#000000">)</font></font></p><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><font style="vertical-align:inherit"><font style="vertical-align:inherit"><b>Who: </b>       </font></font></font>Jeannette Bohg, Stanford University</p><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><b><font face="arial, sans-serif"><br></font></b></span></p><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><b><font face="arial, sans-serif"><br></font></b></span></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><span style="color:rgba(0,0,0,0.9)"><b style="font-size:small">Title:</b>        </span>Scaffolding, Abstraction and Learning from Demonstration - A Route to Robot Learning<span style="color:rgba(0,0,0,0.9)">   </span></font></p><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><span style="color:rgba(0,0,0,0.9)"><font face="arial, sans-serif"><br></font></span></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"><b>Abstract:</b> Learning contact-rich, robotic
manipulation skills is a challenging problem due to the high-dimensionality of
the state and action space as well as uncertainty from noisy sensors and
inaccurate motor control. In this talk, I want to show how principles of human
learning can be transferred to robots to combat these factors and achieve more
robust manipulation in a variety of tasks. The first principle is scaffolding.
Humans actively exploit contact constraints in the environment. By adopting a
similar strategy, robots can also achieve more robust manipulation. In this
talk, I will present an approach that enables a robot to autonomously modify
its environment and thereby discover how to ease manipulation skill learning.
Specifically, we provide the robot with fixtures that it can freely place
within the environment. These fixtures provide hard constraints that limit the
outcome of robot actions. Thereby, they funnel uncertainty from perception and
motor control and scaffold manipulation skill learning. We show that
manipulation skill learning is dramatically sped up through this way of
scaffolding.</font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"> </font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif">The second principle is abstraction -
in this case of manipulation skills. Humans have gradually developed language,
mastered complex motor skills, created and utilized sophisticated tools. The
act of conceptualization is fundamental to these abilities because it allows
humans to mentally represent, summarize and abstract diverse knowledge and
skills. By means of abstraction, concepts that we learn from a limited number
of examples can be extended to a potentially infinite set of new and
unanticipated situations. Abstract concepts can also be more easily taught to
others by demonstration- the third principle. I will present work that gives
robots the ability to acquire a variety of manipulation concepts that act as
mental representations of verbs in a natural language instruction. We propose
to use learning from human demonstrations of manipulation actions as recorded
in large-scale video data sets that are annotated with natural language
instructions. In extensive simulation experiments, we show that the policy
learned in the proposed way can perform a large percentage of the 78 different
manipulation tasks on which it was trained. We show that the policy generalizes
over variations of the environment. We also show examples of successful
generalization over novel but similar instructions.</font></p><p class="MsoNormal" style="margin:0in;line-height:normal"><font face="arial, sans-serif"><br>
<b>Bio:</b> Jeannette Bohg is an Assistant
Professor of Computer Science at Stanford University. She was a group leader at
the Autonomous Motion Department (AMD) of the MPI for Intelligent Systems until
September 2017. Before joining AMD in January 2012, Jeannette Bohg was a PhD
student at the Division of Robotics, Perception and Learning (RPL) at KTH in
Stockholm. In her thesis, she proposed novel methods towards multi-modal scene
understanding for robotic grasping. She also studied at Chalmers in Gothenburg
and at the Technical University in Dresden where she received her Master in Art
and Technology and her Diploma in Computer Science, respectively. Her research
focuses on perception and learning for autonomous robotic manipulation and
grasping. She is specifically interesting in developing methods that are
goal-directed, real-time and multi-modal such that they can provide meaningful
feedback for execution and learning. Jeannette Bohg has received several
awards, most notably the 2019 IEEE International Conference on Robotics and
Automation (ICRA) Best Paper Award, the 2019 IEEE Robotics and Automation
Society Early Career Award and the 2017 IEEE Robotics and Automation Letters
(RA-L) Best Paper Award.</font></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial">





</p><p class="MsoNormal" style="line-height:normal;margin:0in 0in 8pt"><font face="arial, sans-serif"> </font></p></div><div><p class="MsoNormal" style="font-size:small;margin:0in 0in 0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-size:initial;background-repeat:initial;background-origin:initial;background-clip:initial"><font face="arial, sans-serif"><br></font></p></div><div style="font-size:small"><font face="arial, sans-serif"><b>Host:</b> <a href="mailto:mwalter@ttic.edu" target="_blank">Matthew Walter</a></font></div><div style="font-size:small"><br></div><div style="font-size:small"><div><font face="arial, sans-serif">For more information on the <i><span>colloquium</span></i> series or to subscribe to the mailing list, please see <a href="http://www.ttic.edu/colloquium.php" target="_blank">http://www.ttic.edu/colloquium.php</a>    <br></font></div><div><br style="color:rgb(80,0,80)"></div><div><br></div><div><br></div></div></div><div><div dir="ltr"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="arial, helvetica, sans-serif">Mary C. Marre</font><div><font face="arial, helvetica, sans-serif">Faculty Administrative Support</font></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6"><b>Toyota Technological Institute</b></font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">6045 S. Kenwood Avenue</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Room 517</font></i></div><div><i><font face="arial, helvetica, sans-serif" color="#3d85c6">Chicago, IL  60637</font></i></div><div><i><font face="arial, helvetica, sans-serif">p:(773) 834-1757</font></i></div><div><i><font face="arial, helvetica, sans-serif">f: (773) 357-6970</font></i></div><div><b><i><a href="mailto:mmarre@ttic.edu" target="_blank"><font face="arial, helvetica, sans-serif">mmarre@ttic.edu</font></a></i></b></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
</blockquote></div></div>
</blockquote></div></div>