(Lectures, Mar 12-16) Computation Intelligence and Big Data Statistics
March 11,2018 23:08:40 readCount:139
Topic: Computation Intelligence and Big Data Statistics
Speaker: Prof.John Paisley (Columbia University)
Lecture 1: Probability review, Bayes rule etc
Venue: Room 141, Building No.4, Wushan Campus
Time: Monday, Mar 12, 2018, 9:00—12:00

Lecture 2: Bayesian approaches to Regression and classification ,EM algorithm, mixture models, and factor models
Venue: Room 318, Building No.4, Wushan Campus
Time: Tuesday, Mar 13, 2018, 9:00—12:00
Lecture 3: Variational inference I, mixture of Gaussians
Venue: Room 318, Building No.4, Wushan Campus
Time: Wednesday, Mar 14, 2018, 9:00—12:00
Lecture 4: Variational inference II, conjugate exponential models, latent Dirichlet allocation,approximations for non-conjugate models
Venue: Room 318, Building No.4, Wushan Campus
Time: Thursday, Mar 15, 2018, 9:00—12:00
Lecture 5: Variational inference III inference for big data sets
Venue: Room 141, Building No.4, Wushan Campus
Time: Friday, Mar 16, 2018, 9:00—12:00
John Paisley is an Assistant Professor at Columbia University since 2013, where he is a member of the Data Science Institute. He received the Ph.D. in Electrical and Computer Engineering from Duke University in 2010, and prior to that, the B.S. in Electrical and Computer Engineering from Duke University in 2004. From 2010 to 2013, he was a postdoctoral fellow in the Computer Science departments at Princeton University with David Blei and UC Berkeley with Michael I. Jordan.  He has published nearly 75 journal and conference papers on Bayesian statistics, machine learning, and pattern recognition. His course “Machine Learning” on edX has enrolled nearly 50,000 students around the world and he is currently under contract to write a textbook on “Bayesian Models for Machine Learning” for Cambridge University Press, which will appear in 2018. He has obtained the following awards: 
Distinguished Faculty Teaching Award, Columbia University, 2017
Top 10% Paper Recognition, IEEE International Conference on Image Processing, 2013
Notable Paper Award, International Conference on Artificial Intelligence and Statistics, 2011
Confucius Institute Language Scholarship, Xiamen University (host), 12/2011-1/2012
Charles R. Vail Outstanding Graduate Scholarship Award, Duke University, May 2010
David Randall Fuller Prize, Duke University, May 2004
This course provides an introduction to Bayesian approaches to machine learning. Topics will include mixed-membership models, latent factor models and Bayesian nonparametric methods. We will also focus on mean-field variational Bayesian inference, an optimization-based approach to approximate posterior learning. Applications of these methods include image processing, topic modeling, collaborative filtering and recommendation systems. We will discuss a selection of these in class. 
Christopher Bishop, Pattern Recognition and Machine Learning
David MacKay, Information Theory, Inference, and Learning Algorithms
Content of the lecture: 
      1. Probability review, Bayes rule, conjugate priors, exponential family; 
      2. Bayesian approaches to regression and classification; 
      3. Hierarchical models, matrix factorization, sparse regression models, sampling 
      4. EM algorithm, mixture models, factor models 
      5. Variational inference I, mixture of Gaussians 
      6. Variational inference II, conjugate exponential models, latent Dirichlet allocation 
      7. Variational inference III, approximations for non-conjugate models 
      8. Variational inference IV, inference for big data sets

Announced by School of Mathematics