<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText">This is an announcement of Zhengxu Xia's MS Presentation<br>
===============================================<br>
Candidate: Zhengxu Xia<br>
<br>
Date: Friday, April 15, 2022<br>
<br>
Time:  2 pm CST<br>
<br>
Remote Location:  <a href="https://uchicago.zoom.us/j/4302315616?pwd=ekoya3U3cFhNdFMxZTdLOCtRY1gyZz09">
https://uchicago.zoom.us/j/4302315616?pwd=ekoya3U3cFhNdFMxZTdLOCtRY1gyZz09</a><br>
<br>
M.S. Paper Title: Automatic Curriculum Generation for Learning Adaptation in Networking
<br>
<br>
Abstract: As deep reinforcement learning (RL) showcases its strengths in networking and systems, its pitfalls also come to the public’s attention—when trained to handle a wide range of net- work workloads and previously unseen deployment environments, RL policies
 often manifest suboptimal performance and poor generalizability.<br>
To tackle these problems, we present Genet, a new training framework for learning better RL-based network adaptation algorithms. Genet is built on the concept of curriculum learning, which has proved effective against similar issues in other domains where RL
 is extensively employed. At a high level, curriculum learning gradually presents more difficult environments to the training, rather than choosing them randomly, so that the current RL model can make meaningful progress in training. However, applying curriculum
 learning in networking is challenging because it remains unknown how to measure the “difficulty” of a network environment.<br>
Instead of relying on handcrafted heuristics to determine the environment’s difficulty level, our insight is to utilize traditional rule-based (non-RL) baselines: If the current RL model performs significantly worse in a network environment than the baselines,
 then the model’s potential to improve when further trained in this environment is substantial. There- fore, Genet automatically searches for the environments where the current model falls significantly behind a traditional baseline scheme and iteratively promotes
 these environ- ments as the training progresses. Through evaluating Genet on three use cases—adaptive video streaming, congestion control, and load balancing, we show that Genet produces RL policies which outperform both regularly trained RL policies and traditional
 baselines in each context, not only under synthetic workloads but also in real environments.<br>
<br>
Advisors: Junchen Jiang<br>
<br>
Committee Members: Junchen Jiang, Heather Zheng, and Francis Y. Yan<br>
<br>
<br>
</div>
</span></font></div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText"><br>
<br>
<br>
</div>
</span></font></div>
</body>
</html>