<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:"Segoe UI";
        panose-1:2 11 5 2 4 2 4 2 2 3;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
span.markxujl16bkr
        {mso-style-name:markxujl16bkr;}
span.mark5mh5tb6qe
        {mso-style-name:mark5mh5tb6qe;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style>
</head>
<body lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word">
<div class="WordSection1">
<p class="MsoNormal"><span style="font-family:"Segoe UI",sans-serif;color:#201F1E;background:white">This is an announcement of <span class="markxujl16bkr"><span style="border:none windowtext 1.0pt;padding:0in">Truong</span></span> <span class="mark5mh5tb6qe"><span style="border:none windowtext 1.0pt;padding:0in">Son</span></span> Hy's
 Candidacy Exam.</span><span style="font-family:"Segoe UI",sans-serif;color:#201F1E"><br>
<span style="background:white">===============================================</span><br>
<span style="background:white">Candidate: <span class="markxujl16bkr"><span style="border:none windowtext 1.0pt;padding:0in">Truong</span></span> <span class="mark5mh5tb6qe"><span style="border:none windowtext 1.0pt;padding:0in">Son</span></span> Hy</span><br>
<br>
<span style="background:white">Date: Wednesday, February 09, 2022</span><br>
<br>
<span style="background:white">Time: 10:30 am CST</span><br>
<br>
<span style="background:white">Remote Location: </span></span><a href="https://urldefense.com/v3/__https:/uchicago.zoom.us/j/99822264606?pwd=dU12eDJzUkxJTE5GZnNXU1V2c0R6QT09__;!!BpyFHLRN4TMTrA!t3KTlPEVLlIsKIFF65kXOzzwbIiO_8VNfAjT5npYlgnLWjo4vgyzcLbK05aWrdoVqsU7zk00$" target="_blank"><span style="font-family:"Segoe UI",sans-serif;border:none windowtext 1.0pt;padding:0in;background:white">https://uchicago.zoom.us/j/99822264606?pwd=dU12eDJzUkxJTE5GZnNXU1V2c0R6QT09</span></a><span style="font-family:"Segoe UI",sans-serif;color:#201F1E;background:white"> 
 Meeting ID: 998 2226 4606 Passcode: 814281</span><span style="font-family:"Segoe UI",sans-serif;color:#201F1E"><br>
<br>
<span style="background:white">Title: Graph representation learning, deep generative models on graphs, and multiresolution machine learning</span><br>
<br>
<span style="background:white">Abstract: Graph neural networks (GNNs) utilizing various ways of generalizing the concept of convolution to graphs have been widely applied to many learning tasks, including modeling physical systems, finding molecular representations
 to estimate quantum chemical computation, etc. Most existing GNNs address permutation invariance by conceiving of the network as a message passing scheme, where each node sums the feature vectors coming from its neighbors. We argue that this scheme imposes
 a limitation on the representation power of GNNs such that each node loses their identity after being aggregated by summing. Thus, we propose a new general architecture called Covariant Compositional Networks (CCNs) in which the node features are represented
 by higher order tensors and transform covariantly/equivariantly according to a specific representation of the symmetry group of its receptive field. Experiments show that CCNs can outperform competing methods on standard graph learning benchmarks and on estimating
 the molecular properties calculated by computationally expensive Density Functional Theory (DFT). This novel machine learning approach allows scientists to efficiently extract chemical knowledge and explore the increasingly growing chemical data.</span><br>
<br>
<span style="background:white">Understanding graphs in a multiscale perspective is essential for capturing the large-scale structure of molecules, proteins, genomes, etc. For this reason, we introduce Multiresolution Equivariant Graph Variational Autoencoder
 (MGVAE), the first hierarchical generative model to learn and generate graphs in a multiresolution and equivariant manner. MGVAE is built upon Multiresolution Graph Network (MGN), an architecture which explicitly learns a multilevel hard clustering of the
 vertices, leading to a true multiresolution hierarchy. MGVAE then employs the hierarchical variational autoencoder model to stochastically generate a graph in multiple resolution levels given the hierarchy of latent distributions. Our proposed framework achieves
 competitive results with several generative tasks including general graph generation, molecule generation, unsupervised molecular representation learning, link prediction on citation graphs, and graph-based image generation. Future applications of MGVAE range
 from lead optimization enhancing the most promising compounds in drug discovery to finding stable crystal structures in material science.</span><br>
<br>
<span style="background:white">Multiresolution Matrix Factorization (MMF) is unusual amongst fast matrix factorization algorithms in that it does not make a low rank assumption. This makes MMF especially well suited to modeling certain types of graphs with
 complex multiscale or hierarchical structure. While MMF promises to yield a useful wavelet basis, finding the factorization itself is hard, and existing greedy methods tend to be brittle. Therefore, we propose a &quot;learnable&quot; version of MMF that carefully
 optimizes the factorization with a combination of Reinforcement Learning and Stiefel manifold optimization through back-propagating errors. Based on the wavelet basis produced by MMF when factorizing the normalized graph Laplacian, a wavelet network learning
 graphs on the spectral domain is constructed with the graph convolution defined via the sparse wavelet transform. We have shown that the wavelet basis resulted from our learnable MMF far outperforms prior MMF algorithms, and the corresponding wavelet networks
 yield state of the art results on standard node classification on citation graphs and molecular graph classification. This is a promising direction to understand and visualize complex hierarchical structures such as social networks and biological data.</span><br>
<br>
<span style="background:white">Advisors: Risi Kondor</span><br>
<br>
<span style="background:white">Committee Members: Risi Kondor, Eric Jonas, and Yuxin Chen</span></span><o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
</body>
</html>