<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div class="">
<div class=""><i class="">Department of Computer Science Seminar</i></div>
<div class=""><b class=""><br class="">
</b></div>
<div class=""><b class="">David Held</b></div>
<div class=""><b class="">Assistant Professor, Robotics Institute</b></div>
<div class=""><b class="">Carnegie Mellon University</b></div>
<div class=""><br class="">
</div>
<div class=""><b class="">Tuesday, January 10th</b></div>
<div class=""><b class="">2:00pm - 3:00pm</b></div>
<div class=""><b class="">In Person: John Crerar Library 390</b></div>
</div>
<div class=""><b class=""><br class="">
</b></div>
<div class=""><b class="">Relational Affordance Learning for Robot Manipulation</b><br class="">
<br class="">
<b class="">Abstract:</b><br class="">
Robots today are typically confined to interact with rigid, opaque objects with known object models. However, the objects in our daily lives are often non-rigid, can be transparent or reflective, and are diverse in shape and appearance. I argue that, to enhance
 the capabilities of robots, we should develop perception methods that consider what robots need to know to interact with the world. Specifically, I will present novel perception methods that reason about object relational affordances; these estimated relational
 affordances can enable robots to perform complex tasks such as manipulating cloth, articulated objects, and grasping transparent and reflective objects.  We also show how we can use such relational affordances to generalize to unseen objects in a category
 from a small number of demonstrations by learning to focus on the important parts of the objects in the demonstration. By reasoning about relational affordances, we can significantly improve our progress on difficult robots tasks.<br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><b class="">Bio:</b></div>
<div class=""><a href="https://davheld.github.io" class="">David Held</a> is an assistant professor at Carnegie Mellon University in the Robotics Institute and is the director of the RPAD lab: Robots Perceiving And Doing. His research focuses on perceptual
 robot learning, i.e. developing new methods at the intersection of robot perception and planning for robots to learn to interact with novel, perceptually challenging, and deformable objects. Prior to coming to CMU, David was a post-doctoral researcher at U.C.
 Berkeley, and he completed his Ph.D. in Computer Science at Stanford University.  David also has a B.S. and M.S. in Mechanical Engineering at MIT.  David is a recipient of the Google Faculty Research Award in 2017 and the NSF CAREER Award in 2021.</div>
<div class=""><br class="">
</div>
<div class=""><img style="font-family: garamond; font-size: 18.66666603088379px; text-align: -webkit-center;" apple-inline="yes" id="029D1EEF-788C-4ECD-B1ED-DA4FE377A66D" src="cid:C187DD34-6AA6-46DC-98FE-E67D48DF794A" class=""></div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class="">---</div>
<div class="">
<div>Holly Santos<br class="">
Executive Assistant to Michael J. Franklin, Chairman<br class="">
Department of Computer Science<br class="">
The University of Chicago<br class="">
5730 S Ellis Ave-217   Chicago, IL 60637<br class="">
P: 773-834-8977<br class="">
<a href="mailto:hsantos@uchicago.edu" class="">hsantos@uchicago.edu</a><br class="">
</div>
</div>
<br class="">
</body>
</html>