<div dir="ltr"><i>Data Science Institute/Computer Science Candidate Seminar</i><div><br></div><div><b>Hao Zhang</b></div><div><div><b>Postdoctoral Researcher</b><br></div><div><b>University of California, Berkeley</b><br></div><div><br></div><div><b>Monday, April 4th</b></div><div><b>3:00 p.m. - 4:00 p.m.</b></div><div><b>In Person: John Crerar Library, Room 390</b></div><div><b>Remote: <a href="http://live.cs.uchicago.edu/haozhang/" target="_blank">Live Stream</a> or <a href="https://uchicago.zoom.us/j/94061294260?pwd=YkFYWDE2MXJvaFMxS2thZFB5cC9tdz09" target="_blank">Zoom</a> (details below)</b></div><div><b><br></b></div><div><b>Machine Learning Parallelization Could Be Automated, Performant, and Easy-to-use<br></b></div><div><br></div><div><div>As models and data grow bigger, ML parallelization is more essential than ever. However, the amount of engineering effort and domain knowledge required for scaling up ML is often underestimated. The marginal cost for developing specialized systems with hand-tuned parallel strategies is extremely high in the face of emerging models and heterogeneous cluster setups.<br><br>In this talk, I will present a better way to build better ML systems. I view ML system building as an optimation over a parallel strategy space, with the objective of maximizing the system “goodput”, conditioned on model and cluster configurations. I show that by formulating each piece in the optimization as math representations, we can make it solvable using existing tools. Unlike specialized systems, this formulation enables building generic ML compilers that automate ML parallelization, generalize to many models, and achieve strong performance, simultaneously. In particular, I’ll describe two compiler systems: Alpa and Cavs, which automate model parallelism on large-scale distributed clusters, and the batching of dynamic neural network computation on accelerators, respectively. My open-source artifacts have been used by organizations such as AI2, Meta, and Google, and parts of my research have been commercialized at multiple start-ups including Petuum and AnyScale.<br><br><b>Bio</b>: <a href="https://people.eecs.berkeley.edu/~hao/">Hao Zhang</a> is a postdoc researcher at UC Berkeley working with Ion Stoica. He completed his Ph.D. at CMU where he worked with Eric Xing. His research interests are in the intersection of machine learning and systems, with the focus on improving the performance and ease-of-use of today’s distributed ML systems. Hao’s research has been recognized with an NVIDIA pioneer research award at NeurIPS’17, and the Jay Lepreau best paper award at OSDI’21.<br></div></div></div><div><br></div><div><b>Host</b>: Sanjay Krishnan</div><div><br></div><div><b>Zoom Info:</b></div><div><a href="https://uchicago.zoom.us/j/94061294260?pwd=YkFYWDE2MXJvaFMxS2thZFB5cC9tdz09">https://uchicago.zoom.us/j/94061294260?pwd=YkFYWDE2MXJvaFMxS2thZFB5cC9tdz09</a><br>Meeting ID: 940 6129 4260<br>Password: ds2022</div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><i style="font-size:12.8px">Rob Mitchum</i></div><div dir="ltr"><i>Associate Director of Communications for Data Science and Computing<br></i><div style="font-size:12.8px"><i style="font-size:12.8px">University of Chicago</i><br></div><div style="font-size:12.8px"><i style="font-size:12.8px"><a href="mailto:rmitchum@ci.uchicago.edu" target="_blank">rmitchum@uchicago.edu</a></i><br></div><div style="font-size:12.8px"><i style="font-size:12.8px">773-484-9890</i><br></div></div></div></div></div></div></div></div></div>