<html><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; ">DEPARTMENT OF COMPUTER SCIENCE<br><br>UNIVERSITY OF CHICAGO<br><br>Date: Friday, March 7, 2008<br>Time: 2:30 p.m.<br>Place: Ryerson 251, 1100 E. 58th Street<br><br>--------------------------------------------------<br><br>Speaker:<span class="Apple-tab-span" style="white-space: pre; ">        </span>Philippe Rigollet<br><br>From:<span class="Apple-tab-span" style="white-space: pre; ">        </span><span class="Apple-tab-span" style="white-space: pre; ">        </span>Georgia Institute of Technology<br><br>Web page:<span class="Apple-tab-span" style="white-space: pre; ">        </span><a href="http://www.math.gatech.edu/~rigollet/">http://www.math.gatech.edu/~rigollet/</a><br><br>Title: Stochastic Convex Optimization Using Mirror Averaging Algorithms<br><br>Abstract: Several statistical problems where the goal is to minimize &nbsp;<br>an unknown convex risk function, can be formulated in the general &nbsp;<br>framework of stochastic convex optimization. For example the problem &nbsp;<br>of model selection and more generally of aggregation can be treated &nbsp;<br>using the machinery of stochastic optimization in several frameworks &nbsp;<br>including density estimation, regression and convex classification. We &nbsp;<br>describe a family of general algorithms called "mirror averaging &nbsp;<br>algorithms" that yield an estimator (or a classifier) which attains &nbsp;<br>optimal rates of model selection in several interesting cases. The &nbsp;<br>theoretical results are presented in the form of exact oracle &nbsp;<br>inequalities similar to those employed in optimization theory. The &nbsp;<br>practical performance of the algorithms is illustrated on several real &nbsp;<br>and artificial examples and compared to standard estimators or &nbsp;<br>classifiers.<br><br>----------------------------------------------<br><br>Host: Partha Niyogi</body></html>