Transcript
Page 1: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Lecture 16: Summary and outlook

Felix Held, Mathematical Sciences

MSA220/MVE440 Statistical Learning for Big Data

24th May 2019

Page 2: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

The big topics

1. Statistical Learning2. Supervised learning

โ–ถ Classificationโ–ถ Regression

3. Unsupervised learningโ–ถ Clustering

4. Data representations and dimension reduction5. Large scale methods

1/58

Page 3: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

The big data paradigms

โ–ถ Small to medium sized dataโ–ถ โ€œGood old statsโ€โ–ถ Typical methods: ๐‘˜-nearest neighbour (kNN), linear andquadratic discriminant analysis (LDA and QDA), Gaussianmixture models, โ€ฆ

โ–ถ High-dimensional dataโ–ถ big-๐‘ paradigmโ–ถ Typical methods: Feature selection, penalized regressionand classification (Lasso, ridge regression, shrunkencentroids, โ€ฆ), low-rank approximations (SVD, NMF), โ€ฆ

โ–ถ Curse of dimensionalityโ–ถ Large scale data

โ–ถ big-๐‘› paradigm (sometimes in combination with big-๐‘)โ–ถ Typical methods: Random forests (with its big-๐‘›extensions), subspace clustering, low-rankapproximations (randomized SVD), โ€ฆ 2/58

Page 4: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Statistical Learning

Page 5: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

What is Statistical Learning?

Learn a model from data by minimizing expected predictionerror determined by a loss function.

โ–ถ Model: Find a model that is suitable for the dataโ–ถ Data: Data with known outcomes is neededโ–ถ Expected prediction error: Focus on quality of prediction(predictive modelling)

โ–ถ Loss function: Quantifies the discrepancy betweenobserved data and predictions

3/58

Page 6: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Statistical Learning for Regression

โ–ถ Theoretically best regression function for squared errorloss

๐‘“(๐ฑ) = ๐”ผ๐‘(๐‘ฆ|๐ฑ)[๐‘ฆ]โ–ถ Approximate (1) or make model-assumptions (2)

1. k-nearest neighbour regression

๐”ผ๐‘(๐‘ฆ|๐ฑ)[๐‘ฆ] โ‰ˆ1๐‘˜ โˆ‘

๐ฑ๐‘–๐‘™โˆˆ๐‘๐‘˜(๐ฑ)๐‘ฆ๐‘–๐‘™

2. linear regression (viewpoint: generalized linear models(GLM))

๐”ผ๐‘(๐‘ฆ|๐ฑ)[๐‘ฆ] โ‰ˆ ๐ฑ๐‘‡๐œท

4/58

Page 7: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Statistical Learning for Classification

โ–ถ Theoretically best classification rule for 0-1 loss and ๐พpossible classes (Bayes rule)

๐‘(๐ฑ) = arg max1โ‰ค๐‘–โ‰ค๐พ

๐‘(๐‘–|๐ฑ)

โ–ถ Approximate (1) or make model-assumptions (2)1. k-nearest neighbour classification

๐‘(๐‘–|๐ฑ) โ‰ˆ 1๐‘˜ โˆ‘

๐ฑ๐‘™โˆˆ๐‘๐‘˜(๐ฑ)1(๐‘–๐‘™ = ๐‘–)

2. Multi-class logistic regression

๐‘(๐‘–|๐ฑ) = ๐‘’๐ฑ๐‘‡๐œท(๐‘–)

1 +โˆ‘๐พโˆ’1๐‘™=1 ๐‘’๐ฑ๐‘‡๐œท(๐‘™)

and ๐‘(๐พ|๐ฑ) = 11 +โˆ‘๐พโˆ’1

๐‘™=1 ๐‘’๐ฑ๐‘‡๐œท(๐‘™)

5/58

Page 8: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Empirical error rates (I)

โ–ถ Training error

๐‘…๐‘ก๐‘Ÿ = 1๐‘›

๐‘›โˆ‘๐‘™=1

๐ฟ(๐‘ฆ๐‘™, ๐‘“(๐ฑ๐‘™|๐’ฏ))

where๐’ฏ = {(๐‘ฆ๐‘™, ๐ฑ๐‘™) โˆถ 1 โ‰ค ๐‘™ โ‰ค ๐‘›}

โ–ถ Test error๐‘…๐‘ก๐‘’ = 1

๐‘š๐‘šโˆ‘๐‘™=1

๐ฟ( ๐‘ฆ๐‘™, ๐‘“(๏ฟฝ๏ฟฝ๐‘™|๐’ฏ))

where ( ๐‘ฆ๐‘™, ๏ฟฝ๏ฟฝ๐‘™) for 1 โ‰ค ๐‘™ โ‰ค ๐‘š are new samples from thesame distribution as ๐’ฏ, i.e. ๐‘(๐’ฏ).

6/58

Page 9: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Splitting up the data

โ–ถ Holdout method: If we have a lot of samples, randomlysplit available data into training set and test set

โ–ถ ๐‘-fold cross-validation: If we have few samples1. Randomly split available data into ๐‘ equally large subsets,so-called folds.

2. By taking turns, use ๐‘ โˆ’ 1 folds as the training set and thelast fold as the test set

7/58

Page 10: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Approximations of expected prediction error

โ–ถ Use test error for hold-out method, i.e.

๐‘…๐‘ก๐‘’ = 1๐‘š

๐‘šโˆ‘๐‘™=1

๐ฟ( ๐‘ฆ๐‘™, ๐‘“(๏ฟฝ๏ฟฝ๐‘™|๐’ฏ))

where ( ๐‘ฆ๐‘™, ๏ฟฝ๏ฟฝ๐‘™) for 1 โ‰ค ๐‘™ โ‰ค ๐‘š are the elements in the test set.โ–ถ Use average test error for c-fold cross-validation, i.e.

๐‘…๐‘๐‘ฃ = 1๐‘›

๐‘โˆ‘๐‘—=1

โˆ‘(๐‘ฆ๐‘™,๐ฑ๐‘™)โˆˆโ„ฑ๐‘—

๐ฟ(๐‘ฆ๐‘™, ๐‘“(๐ฑ๐‘™|โ„ฑโˆ’๐‘—))

where โ„ฑ๐‘— is the ๐‘—-th fold and โ„ฑโˆ’๐‘— is all data except fold ๐‘—.

Note: For ๐‘ = 1 this is called leave-one-out cross validation(LOOCV)

8/58

Page 11: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Careful data splitting

โ–ถ Note: For the approximations to be justifiable, test andtraining sets need to be identically distributed

โ–ถ Splitting has to be done randomlyโ–ถ If data is unbalanced, then stratification is necessary.Examples:

โ–ถ Class imbalanceโ–ถ Continuous outcome is observed more often in someintervals than others (e.g. high values more often than lowvalues)

9/58

Page 12: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Bias-Variance Tradeoff

Bias-Variance Decomposition๐‘… = ๐”ผ๐‘(๐’ฏ,๐ฑ,๐‘ฆ) [(๐‘ฆ โˆ’ ๐‘“(๐ฑ))2] Total expected prediction error

= ๐œŽ2 Irreducible Error+ ๐”ผ๐‘(๐ฑ) [(๐‘“(๐ฑ) โˆ’ ๐”ผ๐‘(๐’ฏ) [๐‘“(๐ฑ)])

2] Bias2 averaged over ๐ฑ

+ ๐”ผ๐‘(๐ฑ) [Var๐‘(๐’ฏ) [๐‘“(๐ฑ)]] Variance of ๐‘“ averaged over ๐ฑ

๐‘…

Underfit Overfit

Model complexity

Error

Bias2 Variance

Irreducib

le Error

10/58

Page 13: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Classification

Page 14: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Overview

1. ๐‘˜-nearest neighbours (Lecture 1)2. 0-1 regression (Lecture 2)

โ–ถ just an academic example - do not use in practice3. Logistic regression (Lecture 2, both binary andmulti-class; Lecture 11 for sparse case)

4. Nearest Centroids (Lecture 2) and shrunken centroids(Lecture 10)

5. Discriminant analysis (Lecture 2)โ–ถ Many variants: linear (LDA), quadratic (QDA),diagonal/Naive Bayes, regularized (RDA; Lecture 5),Fisherโ€™s LDA/reduced-rank LDA (Lecture 6), mixture DA(Lecture 8)

6. Classification and Regression trees (CART) (Lecture 4)7. Random Forests (Lecture 5 & 15)

11/58

Page 15: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Multiple angles on the same problem

1. Bayes rule: Approximate ๐‘(๐‘–|๐ฑ) and choose largestโ–ถ e.g. kNN or logistic regression

2. Model of the feature space: Assume models for ๐‘(๐ฑ|๐‘–) and๐‘(๐‘–) separately

โ–ถ e.g. discriminant analysis3. Partitioning methods: Create explicit partitions of thefeature space and assign each a class

โ–ถ e.g. CART or Random Forests

12/58

Page 16: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Finding the parameters of DA

โ–ถ Notation: Write ๐‘(๐‘–) = ๐œ‹๐‘– and consider them as unknownparameters

โ–ถ Given data (๐‘–๐‘™, ๐ฑ๐‘™) the likelihood maximization problem is

arg max๐,๐šบ,๐…

๐‘›โˆ๐‘™=1

๐‘(๐ฑ๐‘™|๐๐‘–๐‘™ , ๐šบ๐‘–๐‘™)๐œ‹๐‘–๐‘™ subject to๐พโˆ‘๐‘–=1

๐œ‹๐‘– = 1.

โ–ถ Can be solved using a Lagrange multiplier (try it!) andleads to

๐œ‹๐‘– =๐‘›๐‘–๐‘› , with ๐‘›๐‘– =

๐‘›โˆ‘๐‘™=1

1(๐‘–๐‘™ = ๐‘–)

๐๐‘– =1๐‘›๐‘–

โˆ‘๐‘–๐‘™=๐‘–

๐‘ฅ๐‘™

๐šบ๐‘– =1

๐‘›๐‘– โˆ’ 1 โˆ‘๐‘–๐‘™=๐‘–(๐‘ฅ๐‘™ โˆ’ ๐๐‘–)(๐‘ฅ๐‘™ โˆ’ ๐๐‘–)๐‘‡

13/58

Page 17: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Performing classification in DA

Bayesโ€™ rule implies the classification rule

๐‘(๐ฑ) = arg max1โ‰ค๐‘–โ‰ค๐พ

๐‘(๐ฑ|๐๐‘–, ๐šบ๐‘–)๐œ‹๐‘–

Note that since log is strictly increasing this is equivalent to

๐‘(๐ฑ) = arg max1โ‰ค๐‘–โ‰ค๐พ

๐›ฟ๐‘–(๐ฑ)

where

๐›ฟ๐‘–(๐ฑ) = log๐‘(๐ฑ|๐๐‘–, ๐šบ๐‘–) + log๐œ‹๐‘–= log๐œ‹๐‘– โˆ’

12(๐ฑ โˆ’ ๐๐‘–)๐‘‡๐šบโˆ’1๐‘– (๐ฑ โˆ’ ๐๐‘–) โˆ’

12 log |๐šบ๐‘–| (+๐ถ)

This is a quadratic function in ๐ฑ.

14/58

Page 18: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Different levels of complexity

โ–ถ This method is called Quadratic Discriminant Analysis(QDA)

โ–ถ Problem: Many parameters that grow quickly withdimension

โ–ถ ๐พ โˆ’ 1 for all ๐œ‹๐‘–โ–ถ ๐‘ โ‹… ๐พ for all ๐๐‘–โ–ถ ๐‘(๐‘ + 1)/2 โ‹… ๐พ for all ๐šบ๐‘– (most costly)

โ–ถ Solution: Replace covariance matrices ๐šบ๐‘– by a pooledestimate

๏ฟฝ๏ฟฝ =๐พโˆ‘๐‘–=1

๏ฟฝ๏ฟฝ๐‘–๐‘›๐‘– โˆ’ 1๐‘› โˆ’ ๐พ = 1

๐‘› โˆ’ ๐พ๐พโˆ‘๐‘–=1

โˆ‘๐‘–๐‘™=๐‘–

(๐‘ฅ๐‘™ โˆ’ ๐๐‘–)(๐‘ฅ๐‘™ โˆ’ ๐๐‘–)๐‘‡

โ–ถ Simpler correlation and variance structure: All classesare assumed to have the same correlation structurebetween features

15/58

Page 19: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Performing classification in the simplified case

As before, consider

๐‘(๐ฑ) = arg max1โ‰ค๐‘–โ‰ค๐พ

๐›ฟ๐‘–(๐ฑ)

where

๐›ฟ๐‘–(๐ฑ) = log๐œ‹๐‘– + ๐ฑ๐‘‡๐šบโˆ’1๐๐‘– โˆ’12๐

๐‘‡๐‘– ๐šบโˆ’1๐๐‘– (+๐ถ)

This is a linear function in ๐ฑ. The method is therefore calledLinear Discriminant Analysis (LDA).

16/58

Page 20: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Even more simplifications

Other simplifications of the correlation structure are possible

โ–ถ Ignore all correlations between features but allowdifferent variances, i.e. ๐šบ๐‘– = ๐šฒ๐‘– for a diagonal matrix ๐šฒ๐‘–(Diagonal QDA or Naive Bayesโ€™ Classifier)

โ–ถ Ignore all correlations and make feature variances equal,i.e. ๐šบ๐‘– = ๐šฒ for a diagonal matrix ๐šฒ (Diagonal LDA)

โ–ถ Ignore correlations and variances, i.e. ๐šบ๐‘– = ๐œŽ2๐ˆ๐‘ร—๐‘(Nearest Centroids adjusted for class frequencies ๐œ‹๐‘– )

17/58

Page 21: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Classification and Regression Trees (CART)

โ–ถ Complexity of partitioning:ArbitraryPartition

> RectangularPartition

> Partition from asequence of binary splits

โ–ถ Classification and Regression Trees create a sequence ofbinary axis-parallel splits in order to reduce variability ofvalues/classes in each region

111 1

11 00 00 00

11 1

111 0

0 0000

00 00 00 00 0 0

00

00 00 0

0 0000 00

00 0

000 00

00 00

1

2

3

4

2 4 6x1

x 2

x2 >= 2.2

x1 >= 3.50

1.00 .0060%

01.00 .00

20%

1.00 1.00

20%

yes no

18/58

Page 22: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Bootstrap aggregation (bagging)

1. Given a training sample (๐‘ฆ๐‘™, ๐ฑ๐‘™) or (๐‘–๐‘™, ๐ฑ๐‘™), we want to fit apredictive model ๐‘“(๐ฑ)

2. For ๐‘ = 1,โ€ฆ , ๐ต, form bootstrap samples of the trainingdata and fit the model, resulting in ๐‘“๐‘(๐ฑ)

3. Define

๐‘“bag(๐ฑ) =1๐ต

๐ตโˆ‘๐‘=1

๐‘“๐‘(๐ฑ)

where ๐‘“๐‘(๐ฑ) is a continuous value for a regressionproblem or a vector of class probabilities for aclassification problem

Majority vote can be used for classification problems insteadof averaging

19/58

Page 23: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Random Forests

Computational procedure1. Given a training sample with ๐‘ features, do for ๐‘ = 1,โ€ฆ , ๐ต

1.1 Draw a bootstrap sample of size ๐‘› from training data (withreplacement)

1.2 Grow a tree ๐‘‡๐‘ until each node reaches minimal node size๐‘›min1.2.1 Randomly select๐‘š variables from the ๐‘ available1.2.2 Find best splitting variable among these๐‘š1.2.3 Split the node

2. For a new ๐ฑ predictRegression: ๐‘“๐‘Ÿ๐‘(๐ฑ) =

1๐ตโˆ‘๐ต

๐‘=1 ๐‘‡๐‘(๐ฑ)Classification: Majority vote at ๐ฑ across trees

Note: Step 1.2.1 leads to less correlation between trees builton bootstrapped data.

20/58

Page 24: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Regression and feature selection

Page 25: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Overview

1. ๐‘˜-nearest neighbours (Lecture 1)2. Linear regression (Lecture 1)3. Filtering (Lecture 9)

โ–ถ F-score, mutual information, RF variable importance, โ€ฆ4. Wrapping (Lecture 9)

โ–ถ Forward-, backward-, and best subset selection5. Penalized regression and variable selection

โ–ถ Ridge regression and lasso (Lecture 9), group lasso andelastic net (Lecture 10), adaptive lasso and SCAD(Lecture 11)

6. Computation of the lasso (Lecture 10)7. Applications of penalisation

โ–ถ For Discriminant Analysis: Shrunken centroids (Lecture 10)โ–ถ For GLM: sparse multi-class logistic regression (Lecture 11)โ–ถ For networks: Graphical lasso (Lecture 14)

21/58

Page 26: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Intuition for the penalties

The least squares RSS is minimized for ๐œทOLS. If a constraint isadded (โ€–๐œทโ€–๐‘ž๐‘ž โ‰ค ๐‘ก) then the RSS is minimized by the closest ๐œทpossible that fulfills the constraint.

ฮฒ1

ฮฒ2

ฮฒOLS

โ—

โ—

ฮฒlasso

Lasso

ฮฒ1

ฮฒ2

ฮฒOLS

โ—

โ—

ฮฒridge

Ridge

The blue lines are the contour lines for the RSS. 22/58

Page 27: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

A regularisation path

Prostate cancer dataset (๐‘› = 67, ๐‘ = 8)Red dashed lines indicate the ๐œ† selected by cross-validation

โˆ’0.25

0.00

0.25

0.50

0.75

0 2 4 6 8

Effective degrees of freedom

Coe

ffici

ent

Ridge

โˆ’0.25

0.00

0.25

0.50

0.75

0.00 0.25 0.50 0.75 1.00

Shrinkage

Coe

ffici

ent

Lasso

โˆ’0.25

0.00

0.25

0.50

0.75

โˆ’5 0 5 10

log(ฮป)

Coe

ffici

ent

โˆ’0.25

0.00

0.25

0.50

0.75

โˆ’5 0 5 10

log(ฮป)

Coe

ffici

ent

23/58

Page 28: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Potential caveats of the lasso

โ–ถ Sparsity of the true model:โ–ถ The lasso only works if the data is generated from asparse process.

โ–ถ However, a dense process with many variables and notenough data or high correlation between predictors canbe unidentifiable either way

โ–ถ Correlations: Many non-relevant variables correlatedwith relevant variables can lead to the selection of thewrong model, even for large ๐‘›

โ–ถ Irrepresentable condition: Split ๐— such that ๐—1 containsall relevant variables and ๐—2 contains all irrelevantvariables. If

|(๐—๐‘‡2๐—1)(๐—๐‘‡

1 ๐—1)โˆ’1| < 1 โˆ’ ๐œผfor some ๐œผ > 0 then the lasso is (almost) guaranteed topick the true model 24/58

Page 29: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Elnet and group lasso

โ–ถ The lasso sets variables exactly to zero either on a corner (allbut one) or along an edge (fewer).

โ–ถ The elastic net similarly sets variables exactly to zero on acorner or along an edge. In addition, the curved edgesencourage coefficients to be closer together.

โ–ถ The group lasso has actual information about groups ofvariables. It encourages whole groups to be zerosimultaneously. Within a group, it encourages the coefficientsto be as similar as possible. 25/58

Page 30: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Clustering

Page 31: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Overview

1. Combinatorial Clustering (Lecture 6)2. k-means (Lecture 6)3. Partion around medoids (PAM)/k-medoids (Lecture 7)4. Cluster count selection (Lecture 7 & 8)

โ–ถ Ellbow heuristic, Silhouette Width, Cluster StrengthPrediction, Bayesian Information Criterion (BIC) for GMM

5. Hiearchical clustering (Lecture 7)6. Gaussian Hierarchical Models (GMM; Lecture 8)7. DBSCAN (Lecture 8)8. Non-negative matrix factorisation (NMF; Lecture 11)9. Subspace clustering (Lecture 14)

โ–ถ In particular, CLIQUE and ProClus10. Spectral clustering (Lecture 14)

26/58

Page 32: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

k-means and the assumption of spherical geometry

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ— โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ— โ— โ— โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โˆ’2

โˆ’1

0

1

2

โˆ’2 โˆ’1 0 1 2

x

y

Simulated

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ— โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ— โ— โ— โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โˆ’3

0

3

โˆ’3 0 3

x

y

kโˆ’means directly on data

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โˆ’1

0

1

โˆ’1 0 1

r

ฮธ

Polarโˆ’coordinates

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ— โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ— โ— โ— โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โˆ’2

โˆ’1

0

1

2

โˆ’2 โˆ’1 0 1 2

x

y

kโˆ’means on polar coord

27/58

Page 33: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Spectral Clustering

1. Determine the weighted adjacency matrix๐– and the graphLaplacian ๐‹

2. Find the ๐พ smallest eigenvalues of ๐‹ that are near zero andwell separated from the others

3. Find the corresponding eigenvectors ๐” = (๐ฎ1, โ€ฆ , ๐ฎ๐พ) โˆˆ โ„๐‘›ร—๐พ

and use k-means on the rows of ๐” to determine clustermembership

โ—

โ—

โ—

โ—โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ— โ—โ—

โ—โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

Raw data (n = 500

โ—

โ—

โ—

โ—โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ— โ—โ—

โ—โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

Spectral clustering

28/58

Page 34: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Hierarchical Clustering

Procedural idea:

1. Initialization: Let each observation ๐ฑ๐‘™ be in its owncluster ๐‘”0๐‘™ for ๐‘™ = 1, โ€ฆ , ๐‘›

2. Joining: In step ๐‘–, join the two clusters ๐‘”๐‘–โˆ’1๐‘™ and ๐‘”๐‘–โˆ’1๐‘š thatare closest to each other resulting in ๐‘› โˆ’ ๐‘– clusters

3. After ๐‘› โˆ’ 1 steps all observations are in one big cluster

Subjective choices:

โ–ถ How do we measure distance between observations?โ–ถ What is closeness for clusters?

29/58

Page 35: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Linkage

Cluster-cluster distance is called linkage

Distance between clusters ๐‘” and โ„Ž

1. Average Linkage:

๐‘‘(๐‘”, โ„Ž) = 1|๐‘”| โ‹… |โ„Ž| โˆ‘

๐ฑ๐‘™โˆˆ๐‘”๐ฑ๐‘šโˆˆโ„Ž

๐ƒ๐‘™,๐‘š

2. Single Linkage๐‘‘(๐‘”, โ„Ž) = min๐ฑ๐‘™โˆˆ๐‘”

๐ฑ๐‘šโˆˆโ„Ž๐ƒ๐‘™,๐‘š

3. Complete Linkage๐‘‘(๐‘”, โ„Ž) = max๐ฑ๐‘™โˆˆ๐‘”

๐ฑ๐‘šโˆˆโ„Ž๐ƒ๐‘™,๐‘š

30/58

Page 36: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Dendrograms

Hierarchical clustering applied to iris dataset0

12

34

56

Complete Linkage

Hei

ght

โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ— โ—

โ–ถ Leaf colours represent iris type: setosa, versicolor and virginicaโ–ถ Height is the distance between clustersโ–ถ The tree can be cut at a certain height to achieve a finalclustering. Long branches mean large increase in within clusterscatter at join 31/58

Page 37: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Remember QDA

In Quadratic Discriminant Analysis (QDA) we assumed

๐‘(๐ฑ|๐‘–) = ๐‘ (๐ฑ|๐๐‘–, ๐šบ๐‘–) and ๐‘(๐‘–) = ๐œ‹๐‘–

This is known as a Gaussian Mixture Model (GMM) for ๐ฑ where

๐‘(๐ฑ) =๐พโˆ‘๐‘–=1

๐‘(๐‘–)๐‘(๐ฑ|๐‘–) =๐พโˆ‘๐‘–=1

๐œ‹๐‘–๐‘ (๐ฑ|๐๐‘–, ๐šบ๐‘–)

QDA used that the classes ๐‘–๐‘™ and feature vectors ๐ฑ๐‘™ of theobservations were known to calculate ๐œ‹๐‘– , ๐๐‘– and ๐šบ๐‘– .

What if we only know the features ๐ฑ๐‘™?

32/58

Page 38: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Expectation-Maximization for GMMs

Finding the MLE for parameters ๐œฝ in GMMs results in aniterative process called Expectation-Maximization (EM)

1. Initialize ๐œฝ2. E-Step: Update

๐œ‚๐‘™๐‘– =๐œ‹๐‘–๐‘(๐ฑ๐‘™|๐๐‘–, ๐šบ๐‘–)

โˆ‘๐พ๐‘—=1 ๐œ‹๐‘—๐‘(๐ฑ๐‘™|๐๐‘—, ๐šบ๐‘—)

3. M-Step: Update

๐๐‘– =โˆ‘๐‘›

๐‘™=1 ๐œ‚๐‘™๐‘–๐ฑ๐‘™โˆ‘๐‘›

๐‘™=1 ๐œ‚๐‘™๐‘–๐œ‹๐‘– =

โˆ‘๐‘›๐‘™=1 ๐œ‚๐‘™๐‘–๐‘›

๐šบ๐‘– =1

โˆ‘๐‘›๐‘™=1 ๐œ‚๐‘™๐‘–

๐‘›โˆ‘๐‘™=1

๐œ‚๐‘™๐‘–(๐ฑ๐‘™ โˆ’ ๐๐‘–)(๐ฑ๐‘™ โˆ’ ๐๐‘–)๐‘‡

4. Repeat steps 2 and 3 until convergence33/58

Page 39: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Density-based clusters

A cluster ๐ถ is a set of points in ๐ท s.th.

1. If ๐‘ โˆˆ ๐ถ and ๐‘ž is density-reachable from ๐‘ then ๐‘ž โˆˆ ๐ถ(maximality)

2. For all ๐‘, ๐‘ž โˆˆ ๐ถ: ๐‘ and ๐‘ž are density-connected(connectivity)

This leads to three types of points

1. Core points: Part of a cluster and at least ๐‘›min points inneighbourhood

2. Border points: Part of a cluster but not core points3. Noise: Not part of any cluster

Note: Border points can have non-unique cluster assignments

34/58

Page 40: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Density-based clusters

A cluster ๐ถ is a set of points in ๐ท s.th.

1. If ๐‘ โˆˆ ๐ถ and ๐‘ž is density-reachable from ๐‘ then ๐‘ž โˆˆ ๐ถ(maximality)

2. For all ๐‘, ๐‘ž โˆˆ ๐ถ: ๐‘ and ๐‘ž are density-connected(connectivity)

This leads to three types of points

1. Core points: Part of a cluster and at least ๐‘›min points inneighbourhood

2. Border points: Part of a cluster but not core points3. Noise: Not part of any cluster

Note: Border points can have non-unique cluster assignments

34/58

Page 41: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Density-based clusters

A cluster ๐ถ is a set of points in ๐ท s.th.

1. If ๐‘ โˆˆ ๐ถ and ๐‘ž is density-reachable from ๐‘ then ๐‘ž โˆˆ ๐ถ(maximality)

2. For all ๐‘, ๐‘ž โˆˆ ๐ถ: ๐‘ and ๐‘ž are density-connected(connectivity)

This leads to three types of points

1. Core points: Part of a cluster and at least ๐‘›min points inneighbourhood

2. Border points: Part of a cluster but not core points3. Noise: Not part of any cluster

Note: Border points can have non-unique cluster assignments

34/58

Page 42: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Density-based clusters

A cluster ๐ถ is a set of points in ๐ท s.th.

1. If ๐‘ โˆˆ ๐ถ and ๐‘ž is density-reachable from ๐‘ then ๐‘ž โˆˆ ๐ถ(maximality)

2. For all ๐‘, ๐‘ž โˆˆ ๐ถ: ๐‘ and ๐‘ž are density-connected(connectivity)

This leads to three types of points

1. Core points: Part of a cluster and at least ๐‘›min points inneighbourhood

2. Border points: Part of a cluster but not core points3. Noise: Not part of any cluster

Note: Border points can have non-unique cluster assignments

34/58

Page 43: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Density-based clusters

A cluster ๐ถ is a set of points in ๐ท s.th.

1. If ๐‘ โˆˆ ๐ถ and ๐‘ž is density-reachable from ๐‘ then ๐‘ž โˆˆ ๐ถ(maximality)

2. For all ๐‘, ๐‘ž โˆˆ ๐ถ: ๐‘ and ๐‘ž are density-connected(connectivity)

This leads to three types of points

1. Core points: Part of a cluster and at least ๐‘›min points inneighbourhood

2. Border points: Part of a cluster but not core points3. Noise: Not part of any cluster

Note: Border points can have non-unique cluster assignments

34/58

Page 44: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

DBSCAN algorithm

Computational procedure:

1. Go through each point ๐‘ in the dataset ๐ท2. If it has already been processed take the next one3. Else determine its ๐œ€-neighbourhood. If less than ๐‘›minpoints in neighbourhood, label as noise. Otherwise, starta new cluster.

4. Find all points that are density-reachable from ๐‘ and addthem to the cluster.

35/58

Page 45: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Dependence on ๐‘›min

โ–ถ Controls how easy it is to connect components in acluster

โ–ถ Too small and most points are core points, creating manysmall clusters

โ–ถ Too large and few points are core points, leading to manynoise labelled observations

โ–ถ A cluster has by definition at least ๐‘›min pointsโ–ถ Choice of ๐‘›min is very dataset dependentโ–ถ Tricky in high-dimensional data (curse of dimensionality,everything is far apart)

36/58

Page 46: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Dependence on ๐œ€

โ–ถ Controls how much of the data will beclustered

โ–ถ Too small and small gaps in clusterscannot be bridged, leading to isolatedislands in the data

โ–ถ Too large and everything is connectedโ–ถ Choice of ๐œ€ is also dataset dependentbut there is a decision tool

โ–ถ Determine distance to the ๐‘˜ nearestneighbours for each point in thedataset

โ–ถ Inside clusters, increasing ๐‘˜ shouldnot lead to a large increase of ๐‘‘

โ–ถ The optimal ๐œ€ is supposed to beroughly at the knee

0 500 1000 1500 2000

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Points (sample) sorted by distance

4โˆ’N

N d

ista

nce

37/58

Page 47: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Dimension reduction and datarepresentation

Page 48: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Overview

1. Principal Component Analysis (PCA; Lecture 5)2. Singular Value Decomposition (SVD; Lecture 5, 11 & 15)3. Factor Analysis (Lecture 11)4. Non-negative matrix factorization (NMF; Lecture 11 & 12)5. Kernel-PCA (kPCA; Lecture 12)6. Multi-dimensional scaling (MDS; Lecture 13)

โ–ถ Classical scaling and metric MDS for general distancematrices

7. Isomap (Lecture 13)8. t-distributed Stochastic Neighbour Embedding (tSNE;Lecture 13)

9. Laplacian Eigenmaps (Lecture 14)

38/58

Page 49: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Principal Component Analysis (PCA)

Computational Procedure:

1. Centre and standardize the columns of the data matrix๐— โˆˆ โ„๐‘›ร—๐‘

2. Calculate the empirical covariance matrix ๐šบ = 1๐‘› โˆ’ 1๐—

๐‘‡๐—3. Determine the eigenvalues ๐œ†๐‘— and correspondingorthonormal eigenvectors ๐ซ๐‘— of ๐šบ for ๐‘— = 1,โ€ฆ , ๐‘ and orderthem such that

๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ†๐‘ โ‰ฅ 04. The vectors ๐ซ๐‘— give the direction of the principalcomponents (PC) ๐ซ๐‘‡๐‘— ๐ฑ and the eigenvalues ๐œ†๐‘— are thevariances along the PC directions

Note: Set ๐‘ = (๐ซ1, โ€ฆ , ๐ซ๐‘) and ๐ƒ = diag(๐œ†1, โ€ฆ , ๐œ†๐‘) then๐šบ = ๐‘๐ƒ๐‘๐‘‡ and ๐‘๐‘‡๐‘ = ๐‘๐‘๐‘‡ = ๐ˆ๐‘ 39/58

Page 50: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

PCA and Dimension Reduction

Recall: For a matrix ๐€ โˆˆ โ„๐‘˜ร—๐‘˜ with eigenvalues ๐œ†1, โ€ฆ , ๐œ†๐‘˜ itholds that

tr(๐€) =๐‘˜โˆ‘๐‘—=1

๐œ†๐‘—

For the empirical covariance matrix ๐šบ and the variance of the๐‘—-th feature Var[๐‘ฅ๐‘—]

tr(๐šบ) =๐‘โˆ‘๐‘—=1

Var[๐‘ฅ๐‘—] =๐‘โˆ‘๐‘—=1

๐œ†๐‘—

is called the total variation.Using only the first ๐‘š < ๐‘ principal components leads to

๐œ†1 +โ‹ฏ+ ๐œ†๐‘š๐œ†1 +โ‹ฏ+ ๐œ†๐‘

โ‹… 100% of explained variance40/58

Page 51: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Better data projection for classification?

Idea: Find directions along which projections result inminimal within-class scatter and maximal between-classseparation.

Projection ontofirst principal component

Projection ontofirst discriminant

LDA decisionboundary

PC1

LD1

41/58

Page 52: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Non-negative matrix factorization (NMF)

A non-negative matrix factorisation of ๐— with rank ๐‘ž solves

arg min๐–โˆˆโ„๐‘ร—๐‘ž,๐‡โˆˆโ„๐‘žร—๐‘›

โ€–๐— โˆ’๐–๐‡โ€–2๐น such that ๐– โ‰ฅ 0,๐‡ โ‰ฅ 0

โ–ถ Sum of positive layers: ๐— โ‰ˆ๐‘žโˆ‘๐‘—=1

๐–โ‹…๐‘—๐‡๐‘‡โ‹…๐‘—

โ–ถ Non-negativity constraint leads to sparsity in basis (in๐–)and coefficients (in ๐‡) [example on next slides]

โ–ถ NP-hard problem, i.e. no general algorithm exists

42/58

Page 53: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

SVD vs NMF โ€“ Example: Reconstruction

MNIST-derived zip code digits (๐‘› = 1000, ๐‘ = 256)100 samples are drawn randomly from each class to keep theproblem balanced.

NMF 1 NMF 2 NMF 3 NMF 4 NMF 5

PCA 1 PCA 2 PCA 3 PCA 4 PCA 5

Red-ish colours are for negative values, white is around zeroand dark stands for positive values

43/58

Page 54: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

SVD vs NMF โ€“ Example: Basis Components

Large difference betweenSVD/PCA and NMF basiscomponents

NMF captures sparsecharacteristic parts whilePCA components capturemore global features.

NMF 6 NMF 7 NMF 8 NMF 9 NMF 10

NMF 1 NMF 2 NMF 3 NMF 4 NMF 5

PCA 6 PCA 7 PCA 8 PCA 9 PCA 10

PCA 1 PCA 2 PCA 3 PCA 4 PCA 5

44/58

Page 55: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

SVD vs NMF โ€“ Example: CoefficientsSVD coefficients

NMF coefficients

Note the additional sparsity in the NMF coefficients. 45/58

Page 56: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

t-distributed Stochastic Neighbour Embedding (tSNE)

t-distributed stochastic neighbour embedding (tSNE) followsa similar strategy as Isomap, in the sense that it measuresdistances locally.Idea: Measure distance of feature ๐ฑ๐‘™ to another feature ๐ฑ๐‘–proportional to the likelihood of ๐ฑ๐‘– under a Gaussiandistribution centred at ๐ฑ๐‘™ with an isotropic covariance matrix.

46/58

Page 57: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Computation of tSNE

For feature vectors ๐ฑ1, โ€ฆ , ๐ฑ๐‘›, set

๐‘๐‘–|๐‘™ =exp(โˆ’โ€–๐ฑ๐‘™ โˆ’ ๐ฑ๐‘–โ€–22/(2๐œŽ2๐‘™ ))

โˆ‘๐‘˜โ‰ ๐‘™ exp(โˆ’โ€–๐ฑ๐‘™ โˆ’ ๐ฑ๐‘˜โ€–22/(2๐œŽ2๐‘™ ))and ๐‘๐‘–๐‘™ =

๐‘๐‘–|๐‘™ + ๐‘๐‘™|๐‘–2๐‘› , ๐‘๐‘™๐‘™ = 0

The variances ๐œŽ2๐‘– are chosen such that the perplexity (here:approximate number of close neighbours) of each marginaldistribution (the ๐‘๐‘–|๐‘™ for fixed ๐‘™) is constant.In the lower-dimensional embedding distance between ๐ฒ1, โ€ฆ , ๐ฒ๐‘› ismeasured with a t-distribution with one degree of freedom orCauchy distribution

๐‘ž๐‘–๐‘™ =(1 + โ€–๐ฒ๐‘– โˆ’ ๐ฒ๐‘™โ€–22)

โˆ’1

โˆ‘๐‘˜โ‰ ๐‘— (1 + โ€–๐ฒ๐‘˜ โˆ’ ๐ฒ๐‘—โ€–22)โˆ’1 and ๐‘ž๐‘™๐‘™ = 0

To determine the ๐ฒ๐‘™ the KL divergence between the distributions๐‘ƒ = (๐‘๐‘–๐‘™)๐‘–๐‘™ and ๐‘„ = (๐‘ž๐‘–๐‘™)๐‘–๐‘™ is minimized with gradient descent

KL(๐‘ƒ||๐‘„) = โˆ‘๐‘–โ‰ ๐‘™

๐‘๐‘–๐‘™ log ๐‘๐‘–๐‘™๐‘ž๐‘–๐‘™47/58

Page 58: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Caveats of tSNE

tSNE is a powerful method but comes with some difficulties aswell

โ–ถ Convergence to local minimum (i.e. repeated runs cangive different results)

โ–ถ Perplexity is hard to tune (as with any tuning parameter)

Letโ€™s see what tSNE does to our old friend, the moons dataset.

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ— โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ— โ— โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ— โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ— โ—โ—โ— โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ— โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โˆ’2

0

2

โˆ’4 โˆ’2 0 2 4 6

x

y

48/58

Page 59: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Influence of perplexity on tSNE

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ— โ—โ—โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—โ— โ—

โ—

โ—โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ— โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—โ—

โ—

โ—โ—โ—โ—

โ—โ—

โ—

โ—โ—โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—โ—โ—โ—โ—โ—

โ—

โ—

โ— โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ— โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ— โ—โ—

โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ— โ—โ—

โ—โ—โ— โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ— โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ— โ—โ—

โ—โ—โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ— โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ— โ—โ—

โ—โ— โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ— โ—

โ—

โ—โ—

โ— โ—

โ—

โ— โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—โ— โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ— โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ— โ—

โ—โ—

โ—

โ—โ—โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—โ—โ—

โ—

โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—

โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—

โ—

โ—

โ—โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—โ—โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—โ—โ—

โ—

โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—

โ—โ—โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—

โ—

โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—โ—

โ—โ—

โ—โ—โ—โ— โ—โ—โ—โ—โ—

โ—โ—โ—โ—โ—โ—

30 50 100

2 5 15

โˆ’100 โˆ’50 0 50 โˆ’100 โˆ’50 0 50 โˆ’100 โˆ’50 0 50

โˆ’50

0

50

โˆ’50

0

50

tSNE1

tSN

E2

Varying perplexity

Transformed with tSNE

49/58

Page 60: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

tSNE multiple runs

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ— โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ— โ—โ— โ—โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ— โ—โ—

โ—

โ—

โ—โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ— โ—โ—

โ—

โ—

โ—โ— โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ— โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ— โ—โ— โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ— โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ— โ—

โ—

โ—โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ— โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ—โ—

โ—โ—โ— โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ— โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ— โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ— โ— โ—

โ—

โ—โ—

โ—โ—โ—โ—

โ—โ—

โ—โ— โ—

โ—โ—

โ—โ—โ—

โ—โ— โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—โ— โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ— โ—โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ— โ—

โ—

โ—

โ—โ—

โ—

โ— โ—โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—

โ—โ—โ— โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ— โ—โ—

โ—โ—

โ—

โ—โ—โ—โ—

โ—โ—โ—

โ—โ—

โ—

โ—โ—

โ— โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ— โ—โ— โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ— โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ— โ—โ—

โ—

โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ— โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ— โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ— โ—โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ— โ—โ—

โ—

โ—โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ— โ—โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—โ—

โ—

โ— โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ— โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—โ—

โ—โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ— โ—

โ—โ—

โ— โ—โ—

โ—

โ— โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ— โ—โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ— โ—โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ— โ—โ— โ—

โ—โ—โ—โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ— โ— โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—โ—โ— โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ— โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—

โ—โ—

โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ— โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ—

โ—โ—โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—

โ—โ—โ—

โ— โ—

โ—โ—โ—

โ—

โ—โ—โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—

โ—โ—

โ—โ— โ—

โ—โ—โ—

โ—

โ—โ—

โ—

โ—

โ—

โ—โ—

โ—

โ—

โ—

โ— โ—

โ—

โ—

โ—โ—

โ—โ—

โ—

6 7 8 9 10

1 2 3 4 5

โˆ’20 0 20 โˆ’20 0 20 โˆ’20 0 20 โˆ’20 0 20 โˆ’20 0 20

โˆ’20

0

20

40

โˆ’20

0

20

40

tSNE1

tSN

E2

Perplexity = 20, multiple runs

Transformed with tSNE

50/58

Page 61: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Large scale methods

Page 62: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Overview

โ–ถ Randomised low-rank SVD (Lecture 15)โ–ถ Divide and Conquer (Lecture 15)โ–ถ Random Forests with big-๐‘› extensions (Lecture 15)โ–ถ Leveraging (Lecture 15)

51/58

Page 63: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Random projection

There are multiple possibilities how the map ๐‘“ in theJohnson-Lindenstrauss theorem can be found.Let ๐— โˆˆ โ„๐‘›ร—๐‘ be a data matrix and ๐‘ž the target dimension.

โ–ถ Gaussian random projection: Set

ฮฉ๐‘–๐‘— โˆผ ๐‘ (0, 1๐‘ž) for ๐‘– = 1, โ€ฆ , ๐‘, ๐‘— = 1,โ€ฆ , ๐‘ž

โ–ถ Sparse random projection: For a given ๐‘  > 0 set

ฮฉ๐‘–๐‘— =โˆš๐‘ ๐‘žโŽงโŽจโŽฉ

โˆ’1 1/(2๐‘ )0 with probability 1 โˆ’ 1/๐‘ 1 1/(2๐‘ )

for ๐‘– = 1, โ€ฆ , ๐‘, ๐‘— = 1,โ€ฆ , ๐‘ž where often ๐‘  = 3(Achlioptas, 2003) or ๐‘  = โˆš๐‘ (Li et al., 2006)

then ๐˜ = ๐—๐›€ โˆˆ โ„๐‘›ร—๐‘ž is a random projection for ๐—. 52/58

Page 64: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Randomized low-rank SVD

Original goal: Apply SVD in cases where both ๐‘› and ๐‘ are large.Idea: Determine an approximate low-dimensional basis forthe range of ๐— and perform the matrix-factorisation in thelow-dimensional space.

โ–ถ Using a random projection ๐— โ‰ˆ ๐๐๐‘‡๐— = ๐๐“โ–ถ Note that ๐“ โˆˆ โ„๐‘žร—๐‘

โ–ถ Calculate the SVD of ๐“ = ๐”0๐‘žร—๐‘ž

โ‹… ๐ƒ๐‘žร—๐‘ž

โ‹… ๐•๐‘‡๐‘žร—๐‘

โ–ถ Set ๐” = ๐๐”0 โˆˆ โ„๐‘›ร—๐‘ž, then ๐— โ‰ˆ ๐”๐ƒ๐•๐‘‡

The SVD of ๐— can therefore be found by random projectioninto a ๐‘ž-dimensional subspace of the range of ๐—, performingSVD in the lower-dimensional subspace and subsequentreconstruction of the vectors into the original space.

53/58

Page 65: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Divide and conquer

๐— โ‹ฎ

๐—2

๐—1

๐—๐พโˆ’1

๐—๐พ

โ‹ฎ

๐‘“(๐—2)

๐‘“(๐—1)

๐‘“(๐—๐พโˆ’1)

๐‘“(๐—๐พ)

sum, mean, โ€ฆ

DivideAll data Conquer Recombine

54/58

Page 66: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Random forests for big-๐‘›

Instead of the standard RF with normal bootstrapping,multiple strategies can be taken

โ–ถ Subsampling (once): Take a subsample of size ๐‘š andgrow RF from there. Very simple to implement, butdifficult to ensure that the subsample is representative.

โ–ถ ๐‘š-out-of-๐‘› sampling: Instead of standard bootstrapping,draw repeatedly ๐‘š samples and grow a tree on eachsubsample. Recombine trees in the usual fashion.

โ–ถ BLB sampling: Grow a forest on each subset byrepeatedly oversampling to ๐‘› samples.

โ–ถ Divide and Conquer: Split original data in ๐พ parts andgrow a random forest on each.

55/58

Page 67: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Leverage

Problem: RepresentativenessHow can we ensure that a subsample is still representative?

We need additional information about the samples. Considerthe special case of linear regression and ๐‘› >> ๐‘.

Recall: For least squares predictions it holds that๏ฟฝ๏ฟฝ = ๐— ๐œท = ๐—(๐—๐‘‡๐—)โˆ’1๐—๐‘‡๐ฒ = ๐‡๐ฒ

with the hat-matrix ๐‡ = ๐—(๐—๐‘‡๐—)โˆ’1๐—๐‘‡ .

Specifically ๐‘ฆ๐‘– = โˆ‘๐‘›๐‘—=1๐ป๐‘–๐‘—๐‘ฆ๐‘— , which means that ๐ป๐‘–๐‘– influences

its own fitted values.

Element ๐ป๐‘–๐‘– is called the leverage of the observation.Leverage captures if the observation ๐‘– is close or far from thecentre of the data in feature space. 56/58

Page 68: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Leveraging

Goal: Subsample the data, but make the more influential datapoints, those with high leverage, more likely to be sampled.

Computational approach

โ–ถ Weight sample ๐‘– by

๐œ‹๐‘– =๐ป๐‘–๐‘–

โˆ‘๐‘›๐‘—=1๐ป๐‘—๐‘—

โ–ถ Draw a weighted subsample of size ๐‘š โ‰ช ๐‘›โ–ถ Use the subsample to solve the regression problem

This procedure is called Leveraging (Ma and Sun, 2013).

57/58

Page 69: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Outlook

Page 70: Lecture 16: Summary and outlook - Chalmersย ยท FindingtheparametersofDA Notation:Write๐‘(๐‘–)=๐œ‹ ๐‘–andconsiderthemasunknown parameters Givendata(๐‘– ,๐ฑ )thelikelihoodmaximizationproblemis

Where to go from here?

โ–ถ Support vector machines (SVM): Chapter 12 in ESLโ–ถ (Gradient) Boosting: Chapter 10 in ESLโ–ถ Gaussian processes: Rasmussen and Williams (2006)Gaussian Processes for Machine Learning1

โ–ถ Streaming/online methods2โ–ถ Neural networks/Deep Learning: Bishop (2006) PatternRecognition and Machine Learning

โ–ถ Natural Language Processing: Course3 by RichardJohansson, CSE, on this topic in the fall

โ–ถ Reinforcement Learning: Sutton and Barto (2015)Reinforcement Learning: An Introduction4

1http://www.gaussianprocess.org/gpml/chapters/RW.pdf2https://en.wikipedia.org/wiki/Online_machine_learning3https://chalmers.instructure.com/courses/79164https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf

58/58


Top Related