<div dir="ltr"><div><font face="arial, sans-serif" color="#000000"><b>When:</b>     Tuesday, April 14th at 3:00pm</font></div><div><font face="arial, sans-serif" color="#000000"><br></font></div><div><font face="arial, sans-serif" color="#000000"><b>Where:</b>    </font><a href="https://zoom.us/j/726610211?pwd=MWEwTGRkM1pvWHJ0ZEkvQ2xoZVFGQT09" target="_blank">https://zoom.us/j/726610211?pwd=MWEwTGRkM1pvWHJ0ZEkvQ2xoZVFGQT09</a> <font face="arial, sans-serif" color="#000000"><br></font></div><div><div><p style="margin-bottom:0.0001pt;line-height:normal"><font face="arial, sans-serif" color="#000000"><b>Who: </b>     <b> </b></font>Ali Vakilian,<b> </b>University of Wisconsin—Madison</p><p style="margin-bottom:0.0001pt;line-height:normal"><br></p></div><div><font face="arial, sans-serif" color="#000000"><b>Title: </b>      </font>New Aspects of Algorithms for Massive Data</div></div><div><br></div><div><font face="arial, sans-serif" color="#000000"><b>Abstract:</b> </font><font face="arial, sans-serif">The early line of research on processing large datasets mainly focused on defining new computational models suitable for massive data analysis (e.g., streaming, sublinear and parallel) and understanding the complexity of problems in those models (e.g., space, query and round complexity). However, in recent years and due to the success of machine learning in applications, new challenges and directions have been introduced in the design of algorithms for massive data. In this talk, I will focus on two of these new aspects.</font></div><font face="arial, sans-serif"><br>The first aspect is to use “machine-learned advice” to improve the performance of algorithms which is referred to as “learning-based” (aka data driven) algorithms. I will consider two basic problems in massive data analysis, namely frequency estimation and low-rank approximation. For these problems, we present learning-based algorithms that are augmented with learned oracles. Our algorithms improve upon the state-of-the-art, both provably and empirically, if the learned oracle has “high-accuracy”. Besides, they achieve the same asymptotic accuracy as the best known “non-learned” algorithms even if the oracle performs poorly.<br><br>The second aspect is to incorporate “fairness” in algorithm design. Machine learning algorithms are now used in many key decision making applications relying on large volumes of available data. Due to growing concerns about creating biases toward a specific population or feature by these automated approaches, the design of fair algorithms becomes more crucial when dealing with massive data. In this part, I describe how to design scalable and practical fair algorithms for the basic task of clustering under several clustering and fairness objectives.</font>    <br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><b><font color="#0b5394">Alicia McClarin</font></b><div><div><font color="#0b5394"><i>Toyota Technological Institute at Chicago</i></font></div><div><div><font color="#0b5394"><i>6045 S. Kenwood Ave., </i></font><i style="color:rgb(11,83,148)">Office 504</i></div><div><i style="color:rgb(11,83,148)">Chicago, IL 60637</i><br></div></div><div><i style="color:rgb(11,83,148)">773-834-3321</i><i style="color:rgb(11,83,148)"><br></i></div><div><a href="http://www.ttic.edu/" target="_blank"><font color="#0b5394"><i>www.ttic.edu</i></font></a></div></div></div></div></div></div></div></div></div></div></div></div>