<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText">This is an announcement of Rida Assaf's Dissertation Defense.<br>
===============================================<br>
Candidate: Rida Assaf<br>
<br>
Date: Friday, April 22, 2022<br>
<br>
Time:  1 pm CST<br>
<br>
Remote Location: <a href="https://uchicago.zoom.us/j/92653972005?pwd=akdzaE5aVkN5b3hOaFA4UHhEZWNjZz09">
https://uchicago.zoom.us/j/92653972005?pwd=akdzaE5aVkN5b3hOaFA4UHhEZWNjZz09</a> Meeting ID: 926 5397 2005 Passcode: 208290<br>
<br>
<br>
Title: Feature Transformations to Enhance Representation Learning<br>
<br>
Abstract: Machine learning (ML) has crowned itself as a breakthrough in a number of domains, such as computer vision and natural language processing, achieving and sometimes exceeding human level performance on certain tasks especially in supervised learning.
 A major factor driving these success stories is the effort undertaken in designing different artificial neural network architectures that are particularly equipped to handle specialized tasks. For example, convolutional neural networks (CNNs) were designed
 to leverage spatial locality and other properties assumed in images, whereas recurrent neural networks and attention mechanisms are used with sequential or time-series data. While the majority of datasets available may not exhibit a special structure and is
 presented in plain tabular form, the most commonly used neural network on tabular datasets is the multi-layer perceptron (MLP).<br>
<br>
Similar to how choosing the right learner architecture may be seen as part of the training process that is essential for a good performance, we believe that some effort on the data presentation side could further improve the learning outcome. The underlying
 idea when using artificial neural networks is that representation learning happens automatically using raw data, unlike classical ML techniques that are still widely applied on tabular datasets, and that are often accompanied by feature selection and transformation
 strategies. We propose that certain feature transformations could enhance the representation learning process and the subsequent machine learning outcome achieved by artificial neural networks. The key principles behind our proposed transformations are highlighting
 the entities and relationships described by the data. These transformations can be a direct application of our domain knowledge, for example by manually designing visual representations of the features to be used by a two-dimensional CNN. Another approach
 is to partition the input feature vector such that each partition represents an entity or a relationship, to be used by a modular MLP (an MLP with multiple input layers). We provide empirical evidence suggesting that such transformations yield better results
 than baseline MLPs, and require less time, data, and parameters. In cases where domain knowledge is lacking or no clear feature groups are known, the transformation process works by generating a permutation of the feature vector where related features are
 neighbors, to be used with a one-dimensional CNN to capture the implicit feature groups.<br>
<br>
We propose a method to automate the transformation process, and evaluate it empirically using synthetic and real-world datasets. The synthetic datasets are designed in a way that allows different levels of representation of the underlying entities and relationships
 in the data, providing additional insight into the learning process. The real-world datasets are derived from experiments reported by other approaches that propose automatic feature transformation techniques to enhance deep learning performance. Our results
 show a clear advantage over these approaches, not only in the learning outcome but also in the simplicity of method.
<br>
<br>
Advisors: Rick Stevens<br>
<br>
Committee Members: Ian Foster, Rick Stevens, and Fangfang Xia<br>
<br>
</div>
</span></font></div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText"><br>
<br>
</div>
</span></font></div>
</body>
</html>