<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<i>Department of Computer Science Seminar</i>
<div><i><br>
</i></div>
<div><b>Pedro Lopes</b></div>
<div><b>Assistant Professor, Computer Science</b></div>
<div><b>University of Chicago</b></div>
<div><b><br>
</b></div>
<div><b>Friday, March 31st</b></div>
<div><b>10:30am-11:30am</b></div>
<div><b>In Person: John Crerar Library 390</b></div>
<div><b><br>
</b></div>
<div><b>Zoom:</b></div>
<div>
<div><a href="https://uchicagogroup.zoom.us/j/95768496895?pwd=OGJ4Q2RLenFqRUtZWkROS1p2cEZwdz09">https://uchicagogroup.zoom.us/j/95768496895?pwd=OGJ4Q2RLenFqRUtZWkROS1p2cEZwdz09</a></div>
<div><br>
</div>
<div><b>Meeting ID: 957 6849 6895</b></div>
<div><b>Passcode: 191861</b></div>
</div>
<div><b><br>
</b></div>
<div><b>Title: Integrating Interactive Devices with the User’s Body</b></div>
<div><b><br>
</b></div>
<div><b>Abstract:</b></div>
<div>
<p style="margin-right: 0in; margin-left: 0in; margin-top: 0in; text-align: justify;">
The main question that drives my research is: <strong>what is the next interface paradigm that supersedes wearable devices?</strong> I argue that the new paradigm is one in which interactive devices will <strong>integrate</strong> with the user’s biological
 senses and actuators.<o:p></o:p></p>
<p style="margin-right: 0in; margin-left: 0in; margin-top: 0in; text-align: justify;">
This way of engineering devices that intentionally borrow parts of the user’s biology puts forward a <strong>new</strong> <strong>generation of miniaturized devices</strong>; allowing us to circumvent traditional physical constraints. For instance, in the case
 of my devices based on electrical muscle stimulation, they demonstrate how our body-device integration circumvents the constraints imposed by the size of motors used in traditional haptic devices (e.g., robotic exoskeletons). Taking this further, we can apply
 this integrated approach to other modalities. For instance, we engineered a device that delivers chemicals to the user to generate temperature sensations, without the need to rely on cumbersome thermal actuators, such as air conditioners or heaters. My approach
 to miniaturizing devices is especially useful to advance mobile interactions, such as in virtual or augmented reality, where users have a desire to remain untethered & free.<o:p></o:p></p>
<p style="margin-right: 0in; margin-left: 0in; margin-top: 0in; text-align: justify;">
Integrating devices with the user’s body allows to <b>give users new physical abilities</b>. For example, we have engineered a device that allows users to locate odor sources by “smelling in stereo” as well as a device that <b>physically accelerates the user’s
 reaction time using muscle stimulation</b>, which allows users to steer to safety or even catch a falling object that they would normally miss. <o:p></o:p></p>
While this integration can offer many benefits (e.g., faster reaction time, realistic simulations in VR/AR, or faster skill acquisition), it also requires tackling new challenges, such as the question of agency: <b>do we feel in control when our body is integrated
 with an interface?</b> Together with our colleagues in neuroscience, we have been measuring how our brain encodes agency to improve the design of this new type of integrated interfaces. We found that, even in the extreme case of interfaces that electrically
 control the user’s muscles, it is possible to improve the sense of agency. More importantly, we found that it is only by preserving the user’s sense of agency that these integrated devices <b>provide benefits even after the user takes them out. </b><span style="font-size: medium;"></span></div>
<div><b><br>
</b></div>
<div><b>Bio:</b></div>
<div>
<p style="margin: 0in; text-align: justify;"><font color="#0e101a">Pedro Lopes is an Assistant Professor in Computer Science at the University of Chicago. Pedro focuses on integrating interfaces with the human body—exploring the interface paradigm that supersedes
 wearables. These include: muscle stimulation wearables that allow users to manipulate tools they have never seen before or that accelerate reaction time, or a device that leverages the smell to create an illusion of temperature. Pedro’s work has received several
 academic awards, such as five CHI/UIST Best Papers, Sloan Fellowship and NSF CAREER, and captured the interest of the public (e.g., New York Times, exhibited at Ars Electronica, etc.; more: <a href="https://lab.plopes.org/">https://lab.plopes.org</a>).</font></p>
<p style="margin: 0in; text-align: justify;"><font color="#0e101a"><br>
</font></p>
</div>
<div><img id="<E79AC5BC-CC8F-40D0-9A55-8286B454F178>" src="cid:4CA2A0FA-A363-4F20-81E4-AD6D0B251EB6" alt="PastedGraphic-1.png" width="240.5" class="Apple-web-attachment" style="opacity: 1;"></div>
<div>
<div><br>
</div>
<div>---</div>
<div>Holly Santos<br>
Executive Assistant to Michael J. Franklin, Chairman<br>
Department of Computer Science<br>
The University of Chicago<br>
5730 S Ellis Ave-217   Chicago, IL 60637<br>
P: 773-834-8977<br>
hsantos@uchicago.edu<br>
</div>
</div>
<br>
</body>
</html>