<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div dir="auto" class="" style="word-wrap: break-word; line-break: after-white-space;"><font face="Arial" class=""><font color="#831100" class=""><span class="" style="font-size: 14px;"><b class="">University of Chicago and Toyota Technological Institute at Chicago<br class="">Machine Learning Seminar Series</b></span></font><br class=""><br class=""><br class=""><b class="" style="font-size: 14px;">Lin Yang</b><br class=""><span class="" style="font-size: 14px;">Princeton university</span><br class=""><br class=""><b class="" style="font-size: 14px;">Wednesday, April 17, 2019 at 1:00 pm<br class="">Harper Center (Booth) Room C04</b><br class=""><br class=""><br class=""><b class="" style="font-size: 14px;">Title:</b></font></div><div dir="auto" class="" style="word-wrap: break-word; line-break: after-white-space;"><font face="Arial" class="" style="font-size: 14px;">Learn Policy Optimally via Efficiently Utilizing Data <br class=""><b class=""><font face="Arial" class="" style="font-weight: normal;"><b class=""><br class=""></b></font></b></font></div><div dir="auto" class="" style="word-wrap: break-word; line-break: after-white-space;"><font face="Arial" class=""><span class=""><font face="Arial" class="" style="font-size: 14px;"><b class="">Abstract:</b><br class=""></font><div class=""><span class="" style="font-size: 14px;">Recent years have witnessed increasing empirical successes in reinforcement learning. Nevertheless, it is an irony that many theoretical problems in this field are not well understood even in the most basic setting. For instance, the optimal sample and time complexities of policy learning in finite-state Markov decision process still remain unclear. Given a state-transition sampler, we develop a novel algorithm that learns an approximate-optimal policy in near-optimal time and using a minimal number of samples. The algorithm makes updates by processing samples in a “streaming” fashion, which requires small memory and naturally adapts to large-scale data. Our result resolves the long-standing open problem on the sample complexity of Markov decision process and provides new insights on how to use data efficiently in learning and optimization. The algorithm and analysis can be extended to solve two-person stochastic games and feature-based Markov decision problems while achieving near-optimal sample complexity. We further illustrate several other examples of learning and optimization over streaming data, with applications in accelerating Astrophysical discoveries and improving network securities. </span></div><font face="Arial" class="" style="font-size: 14px;"><br class=""><b class="">Bio:</b><br class=""></font><div class=""><span class="" style="font-size: 14px;">Lin Yang is currently a postdoctoral researcher at Princeton University working with Prof. Mengdi Wang. He obtained two Ph.D. degrees simultaneously in Computer Science and in Physics & Astronomy from Johns Hopkins University in 2017. Prior to that, he obtained a bachelor’s degree from Tsinghua University. His research focuses on developing fast algorithms for large-scale optimization and machine learning. This includes reinforcement learning and streaming methods for optimization and function approximations. His algorithms have been applied to real-world applications including accelerating astrophysical discoveries and improving network security. He has published numerous papers in top Computer Science conferences including NeurIPS, ICML, STOC, and PODS. At Johns Hopkins, he was a recipient of the Dean Robert H. Roy Fellowship.</span></div><font face="Arial" class="" style="font-size: 14px;"><b class=""><i class="">Host:  </i></b></font></span></font><font face="Arial" class=""><span class="" style="font-size: 14px;"><b class=""><i class="">Rebecca Willett   </i></b></span></font></div><div class=""><font face="Arial" class=""><span class="" style="font-size: 14px;"><b class=""><i class=""></i></b></span></font></div></body></html>