<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText">This is an announcement of Minbiao Han's MS Presentation<br>
===============================================<br>
Candidate: Minbiao Han<br>
<br>
Date: Tuesday, July 18, 2023<br>
<br>
Time:  1:30 pm CST<br>
<br>
Remote Location:  <a href="https://uchicago.zoom.us/j/97790413594?pwd=NHJSVGU0a3hROGgvQndicnd5SHlKZz09&amp;from=addon">
https://uchicago.zoom.us/j/97790413594?pwd=NHJSVGU0a3hROGgvQndicnd5SHlKZz09&amp;from=addon</a><br>
<br>
Location: JCL 390<br>
<br>
M.S. Paper Title: From Dynamic Pricing to Dynamic Principal-Agent Problems: Going Beyond the No Learning Theorem<br>
<br>
Abstract: This paper studies dynamic principal-agent problems, i.e., games in which a principal and an agent repeatedly interact, where the agent’s type is unknown and the agent is non-myopic. A natural question to ask is, can the principal learn the optimal
 strategy against the unknown agent through these repeated interactions? The No Learning Theorem from dynamic pricing, a special class of dynamic principal-agent problems, would suggest that the principal cannot learn effectively from the agent. In contrast,
 we demonstrate, for the first time, that in general principal-agent problems, the principal can improve her utility through learning in repeated plays. We show that this dynamic policy continues to be nearly optimal even when allowing for the principal to
 have a larger static strategy space, specifically if we permit communication between the principal and agent. We also provide an algorithm based on a novel and compact mixed-integer linear program for finding the principal’s optimal dynamic policy. In addition,
 we develop an algorithm to compute a Markovian policy for the principal that approximates the optimal dynamic policy while allowing for more efficient computation. Through simulations, we examine the efficiency, compared to static policies, and the runtime
 of the proposed algorithms. Lastly, we apply the generalized principal-agent framework to a specific contract design problem. We show that with the special structural properties of contract design, the optimal dynamic principal policy has a compact representation.
 Furthermore, in the case where the agent’s type is known, dynamic principal policies enable full surplus extraction from the agent when the interaction with the principal extends over a sufficiently long time horizon.<br>
<br>
Advisors: Haifeng Xu<br>
<br>
Committee Members: Haifeng Xu, Yuxin Chen, Cong Ma, and Michael Albert<br>
<br>
<br>
</div>
</span></font></div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText"><br>
<br>
<br>
</div>
</span></font></div>
</body>
</html>