chaos, complexity, and inference (36-462)cshalizi/462/lectures/15/15.pdfchaos, complexity, and...
TRANSCRIPT
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Chaos, Complexity, and Inference (36-462)Lecture 15: Estimating Heavy-Tailed Distributions
Cosma Shalizi
3 March 2009
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Estimating Heavy-Tailed Distributions
Maximum likelihood The good way to get power law parameterestimates
Log-log regression The bad way to get power law parameterestimates
Non-parametric density estimation Do you care if you have apower law?
Further reading: Clauset et al. (2009)
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Maximum Likelihood
Start with the Pareto (continuous) caseprobability density:
p(x ;ฮฑ, xmin) =ฮฑโ 1xmin
(x
xmin
)โฮฑ
Assuming IID samples, log-likelihood is easy
L(ฮฑ, xmin) = n logฮฑโ 1xmin
โ ฮฑ
nโi=1
logxi
xmin
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Take derivative and set equal to zero at the MLE:
โ
โฮฑL =
nฮฑโ 1
โnโ
i=1
log xi/xmin
ฮฑ = 1 +nโn
i=1 log xi/xmin
What about xmin? If we know that itโs really a Pareto, then theMLE for xmin is min xi . Otherwise, see later.
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Zipf or Zeta Distribution
Same story:
p(x ;ฮฑ, xmin) =xโฮฑ
ฮถ(ฮฑ, xmin)
L(ฮฑ, xmin) = โn log ฮถ(ฮฑ, xmin)โ ฮฑ
nโi=1
log xi
ฮถ โฒ(ฮฑ, xmin)
ฮถ(ฮฑ, xmin)= โ1
n
nโi=1
log xi
In practice itโs easier to just maximize L numerically than tosolve that equation
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
When xmin > 6 or so,
ฮฑ โ 1 +nโn
i=1 log xixminโ0.5
Result due to M. E. J. Newman, see Clauset et al. (2009)
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Properties of the MLE
1. Consistency: easiest to see for Pareto. By LLN,
1n
nโi=1
log xi/xmin โ E [log X/xmin] =1
ฮฑโ 1
so ฮฑ โ ฮฑ; similarly for Zipf2. Standard error
Var [ฮฑ] =(ฮฑโ 1)2
n+ O(nโ2)
Can plug in ฮฑ, or do jack-knife or bootstrap
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Nonparametric Bootstrap in One Slide
Wanted: sampling distribution of some estimator G of afunctional G of a distribution F (e.g., a parameter)Given: data x1, x2, . . . xn, all assumed IID from FProcedure: draw n samples, with replacement, from data,giving b1, b2, . . . bnCalculate G(b1, . . . bn) = GbRepeat many timesEmpirical distribution of Gb is about the sampling distribution ofG(some conditions apply)
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Properties of the MLE (continued)
3. Asymptotically Gaussian and efficient:
ฮฑ N (ฮฑ,(ฮฑโ 1)2
n)
and this is the fastest rate of convergence4. (Pareto) If xmin is known or fixed, (ฮฑโ 1)/n has an inversegamma distribution, which gives exact confidence intervals
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Log-Log Regression
Recall that for a power law
F โ(x) = Pr (X โฅ x) โ xโ(ฮฑโ1)
log F โ(x) โ C โ (ฮฑโ 1) log x
Empirical survival function:
F โn (x) โก 1n
nโi=1
1[x ,โ)(xi)
As n โโ, F โn (x)โ F โ(x).Estimate ฮฑ by linearly regressing log F โn (x) on log x .
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
History
First real investigation of power law data came with VillfredoParetoโs work on economic inequality in 1890sUsed log-log regressionTaken up by Zipf in 1920sโ1940sVery widely used in physics, computer science, etc.
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
1e+04 5e+04 5e+05 5e+06
5eโ
045e
โ03
5eโ
025e
โ01
US City Sizes with LogโLog Regression Line
population
surv
ival
func
tion
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
If the data really come from a power law, this is consistent:
ฮฑLLR โ ฮฑ
but this doesnโt say how fast it converges, and in fact the errorsare large and persistent (compared to MLE)
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
100 500 2000 5000 20000
2.2
2.3
2.4
2.5
2.6
2.7
Exponent estimates compared
500 replicates at each sample sizeSample size
Est
imat
ed a
lpha โ
โ โ โ โ โ โ โ โ
Simulated from Pareto(2.5, 1); blue = regression, black = MLE (shifted a bit for clarity);
mean ฮฑ ยฑ standard deviation
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Why This Is Bad: Improperly Normalized
Notice that F โ(xmin) = 1, so true log survival function crosses 0at xminBut least-squares line does not do so in general! โ estimatedfunction cannot be a probability distribution!Could do constrained linear regression โ but somehow you never see that
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Why This Is Bad: Wrong Error Estimates
Usual formulas for standard errors in regression assumeGaussian noise
Y = ฮฒ0 + ฮฒ1Z + ฮต, ฮต โผ N (0, ฯ2)
so using those formulas here means youโre assuminglog-normal noise for F โnand the central limit theorem says F โn has Gaussian noisei.e., the usual formulas do not apply hereCan get error estimates (if you must) by bootstrap
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Why This Is Bad: Lack of Power
People often point to a high R2 for the regression as a sign thatit must be rightThis is always foolish when it comes to regressionThis is especially foolish here โ distributions like log-normalhave very high R2 even with infinite samplesThe R2 test lacks power and severity against such alternatives
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Example: Log-Log Regressions of Power Laws andLog-Normals
Simulated from Pareto(2.5, 5) andlogN (0.6626308, 0.65393343) โ chosen to come close to theformer. (Also, simulated values < 5 discarded.)Did log-log regression for both, plot shows distribution of R2
values from simulations.
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
1 10 100 1000 10000
0.0
0.2
0.4
0.6
0.8
1.0
R^2 values from samples
black=Pareto, blue=lognormal500 replicates at each sample sizeSample size
R^2
โ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โโโโโ
โ
โ
โ
โโโโโ
โ
โโโ
โ
โ
โ
โ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโโ
โโ
โ
โโโ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโโ
โ
โโ
โ
โ
โโโ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โโ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โโโ
โ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โโโโ
โโ
โ
โ
โ
โโโ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โโโ
โ
โ
โ
โโ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โโ
โ
โ
โ
โ
โโโ
โโ
โโ
โ
โโ
โ
โ
โโ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโโโ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโโโโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโ
โโโ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโ
โโโ
โ
โโ
โ
โ
โโโ
โ
โโ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโโโโ
โ
โโ
โโ
โโ
โ
โ
โ
โโโ
โ
โ
โโ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโ
โโโโโ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โโโ
โ
โโโโ
โ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โโโ
โโโ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โโ
โโ
โโ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โโ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โโ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โโโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโโโโโ
โโโโ
โโโโโโโโโ
โโโโ
โ
โโโโโโ
โโโ
โโ
โ
โโโโโ
โโ
โ
โโโโโโ
โ
โโโ
โโ
โโโโโโโโโ
โ
โโ
โโโโโโโโโโโโโโโโ
โโโโโโ
โโ
โโโ
โ
โโโ
โ
โโโโโโ
โ
โโโโ
โ
โโ
โ
โโโโโโโโโโ
โ
โ
โโโโ
โโโ
โ
โโโโโ
โ
โโโโโโ
โโโโโโโโโโ
โ
โโโโโโโโโโ
โ
โโโ
โโ
โโโโโโโโ
โโโโโโโโโโ
โ
โโโโ
โ
โโ
โ
โโโโโโโโ
โ
โ
โโ
โ
โ
โ
โโโโโโโโ
โ
โโ
โโโ
โ
โ
โโ
โโโโโโโ
โ
โโโ
โ
โโโโโโโโโ
โ
โโโโโ
โโโโโโโโโโโ
โโ
โ
โโโโโโโโโโ
โโโโโโโโ
โ
โโโโโโ
โ
โโโโโ
โโโโโโโ
โ
โโ
โ
โโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโ
โโ
โโ
โ
โโโโโโโโโโ
โ
โโ
โ
โโโโโโโ
โโโโโโ
โโ
โโ
โโโโ
โ
โโโโโโโโโโ
โ
โโโโโโ
โโโโโโโโ
โโโโ
โโ
โโโโโ
โ
โโโโโโโโโโโโโโ
โโ
โ
โโโโโ
โ
โโโ
โ
โโโ
โ
โโโโโโ
โ
โ
โ
โโโโ
โโโโโโ
โโโโโโ
โ
โ
โ
โโโโ
โโ
โ
โโโโโโโโโโโ
โ
โโโโโโโโโโ
โโโโโโโโโโโ
โ
โโโโโโโ
โ
โ
โ
โโโโ
โโโโโโโโโโโโโโ
โ
โโโโโ
โ
โ
โโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โ
โโโโโโโโโ
โ
โโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโ
โ
โโโโโโ
โ
โโโ
โ
โ
โโโโโ
โโ
โ
โ
โโโโโโ
โโโโโโโ
โโโโโโโ
โ
โโโโ
โโโโโโโ
โ
โโโโโโโโโโโโ
โ
โโโโโโโโ
โ
โโ
โ
โโโโ
โ
โโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโ
โโโโโโ
โโโโโโโโโโโโโ
โโโโโโโโโโโโโโโ
โ
โโโโโโ
โ
โโโโ
โ
โโโโ
โ
โโโ
โโโโ
โ
โโโโโ
โโโโโ
โโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโ
โโ
โโโโโโโ
โ
โโ
โโโโโโโโ
โโโโโโโ
โโโโ
โ
โโโโโโโโโโโโโโโโโโโโโ
โโโโโ
โ
โโโโโโโโ
โ
โโโโโโโ
โโ
โโ
โ
โ
โโโโโโโโโ
โโ
โโ
โ
โโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโ
โ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโ
โ
โโโโ
โ
โโ
โโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโ
โ
โโโ
โ
โ
โโโโโโโโโโโโโโโโโ
โ
โโโ
โโ
โโโโโโ
โ
โโโโโโ
โโ
โโโโโโโ
โ
โโ
โ
โโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโ
โ
โ
โ
โโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโ
โ
โโโโโ
โ
โ
โ
โโโโโโโโโโโโโโโโ
โโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโ
โ
โโโโโโโโโโโ
โโโโ
โ
โโโโโโโโ
โ
โ
โโ
โ
โโโโโ
โ
โโโโ
โ
โโโโโ
โ
โโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโ
โ
โ
โโโโโโโโโ
โ
โโโ
โ
โโโโ
โ
โโ
โ
โโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโ
โ
โโโ
โโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโ
โโโโ
โโโโโโโโโโโโโโโโโโโโ
โโ
โโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโ
โโโโโ
โ
โโโโโโโโโโโโโโโโโ
โ
โโ
โ
โโโโ
โโโโโโโโโโโโโโโโโโ
โโ
โ
โโโโโโ
โ
โโโโโโโโโโโโโโโโโโโ
โโ
โ
โโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโ
โโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโ
โ
โโโโโโโโโโ
โ
โโ
โโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโ
โ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ
โโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโ
โ
โโโโโ
โโ
โ
โโโโโโ
โโ
โ
โ
โโ
โโโโ
โ
โโโโโโโโโโโโโโโโโโโโโโ
โ
โ
โ
โ
โโโ
โโ
โ
โโโ
โ
โโ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โโ
โโโ
โโโ
โ
โโโโโโ
โ
โ
โโโโโโ
โ
โโโโโโโโโโโโ
โ
โโ
โ
โโโโโโโโโโโโโโโ
โ
โโโโ
โ
โโโ
โ
โ
โ
โ
โโโ
โ
โโโโโโโโโโ
โ
โโ
โโ
โโโ
โ
โ
โ
โโโโโ
โ
โโโโโ
โโโ
โโโโโโ
โ
โ
โโโโ
โโโโโ
โ
โโโโโโโโโโ
โโโ
โ
โ
โ
โโโโโ
โ
โโโ
โโ
โ
โโ
โโ
โ
โ
โโโโโ
โ
โ
โ
โ
โโโโโโโโโโโโโ
โโ
โ
โ
โโโ
โโ
โโโโ
โโโ
โ
โโโโโโโโโโ
โ
โโโ
โโโโโโโ
โ
โโโ
โ
โโโโโโโโ
โ
โโโโโโโ
โโ
โโโ
โ
โโโโ
โโโโโโ
โโโโโโโโโ
โ
โโโโโโโ
โ
โโโ
โ
โโโโโโ
โโ
โ
โ
โ
โโโโโ
โ
โ
โ
โโโโ
โ
โโโโโ
โ
โ
โโโโโโโโโ
โ
โโโโโโ
โ
โโโโโ
โโ
โโโ
โ
โโโโ
โ
โโโ
โ
โโโโโโโ
โ
โโโ
โ
โโโโโโโโ
โโโโ
โโโ
โ
โโโโโ
โ
โโโโโ
โโโโโโโโโ
โโ
โ
โ
โโ
โโ
โ
โโ
โโ
โ
โ
โ
โโโโโ
โ
โโโ
โโโโ
โโโโโ
โ
โ
โโโโโโโโโ
โ
โโโโ
โ
โโโโโโโโโโโโโโโ
โ
โโ
โโ
โ
โโโโโ
โ
โโโโโโโโ
โโโ
โ
โโโโโโโ
โโโโโโโโ
โโ
โโโโ
โโโโ
โโ
โโโ
โโโโโโ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โโโโโโโ
โโ
โ
โโ
โ
โ
โ
โโโโโโโโโโโ
โ
โ
โ
โโโ
โ
โโโโโโโ
โ
โโโโโ
โ
โ
โ
โโ
โ
โโโโโโ
โ
โโโโโโโ
โโโ
โโโโ
โโ
โโ
โ
โ
โโโ
โ
โ
โโโโ
โ
โโโโ
โโ
โโโโโโโ
โ
โโโโโ
โโโโโโโโ
โ
โโ
โโโโโ
โ
โ
โโ
โ
โโโโโโ
โโโโโโโโโโ
โโโโโโโโโ
โโโโโ
โโ
โ
โ
โโ
โ
โโโโโโ
โ
โโ
โ
โ
โ
โ
โ
โโโโโโโโ
โ
โโโโโโโโ
โโโโโโโ
โ
โโ
โ
โโ
โโ
โโโโโโโโ
โโโโโ
โโโโโโโโโ
โโ
โ
โ
โโ
โโ
โ
โโโโโโโโโโ
โโโ
โ
โ
โ
โโโโโ
โ
โโโ
โ
โโโโโ
โ
โ
โ
โโโโโโโโโโ
โโ
โโโโโโโ
โ
โ
โ
โโ
โโ
โโโโโโโโโ
โ
โ
โ
โโโโ
โ
โโโโโโโโโโโ
โโโโโโ
โโโ
โโโ
โโโโโ
โ
โโโโโโโโโโโโ
โ
โโ
โโโ
โโโ
โ
โโโโโโ
โโโโ
โ
โ
โโ
โ
โโโ
โโ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โโโโโโ
โ
โโ
โ
โ
โโโ
โโ
โ
โ
โ
โโ
โโโโโ
โโโ
โ
โโโ
โ
โโ
โโโ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โโ
โโ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โโ
โโโโโโโโโโ
โโ
โโ
โ
โโโ
โโโ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โโ
โโ
โ
โ
โ
โ
โโโ
โโ
โโ
โ
โ
โโ
โ
โโ
โ
โ
โโ
โโ
โโโ
โ
โ
โ
โโ
โโโ
โ
โ
โโ
โ
โ
โโโ
โโ
โ
โ
โโโโ
โ
โ
โ
โโโโโ
โโ
โ
โโ
โโ
โ
โ
โโโ
โโโโโ
โ
โ
โโ
โโ
โ
โโ
โ
โ
โโโโโโโโ
โ
โ
โ
โ
โ
โโโ
โโ
โโโ
โโโโโ
โโ
โ
โโโ
โโ
โ
โ
โ
โโ
โโโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโโ
โโโ
โ
โโโโโ
โโโโโโ
โ
โ
โ
โ
โ
โโ
โ
โ
โโโโ
โ
โ
โโ
โ
โ
โโโ
โโโ
โโโ
โโโโ
โ
โโโโโ
โโ
โโ
โ
โโ
โโโโโโโ
โโ
โ
โ
โโโโ
โโโ
โ
โโโโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โโโโโโโ
โ
โ
โ
โโ
โ
โ
โโโ
โ
โโ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โโโ
โโ
โโโโโ
โ
โโ
โ
โโ
โ
โ
โโ
โโ
โ
โ
โโโ
โ
โ
โ
โโโ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โโโ
โ
โโ
โ
โ
โ
โ
โโ
โ
โโโโโ
โ
โ
โโโ
โโ
โ
โ
โ
โโ
โ
โ
โโโ
โ
โโโ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โ
โโ
โ
โโโ
โโ
โ
โ
โโโโโ
โ
โ
โโ
โ
โ
โ
โ
โ
โโโ
โโโ
โ
โ
โโ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โโ
โ
โ
โโ
โโโโโ
โโ
โโโ
โโโ
โ
โโโ
โ
โโโ
โโ
โโ
โโ
โ
โ
โ
โโโ
โโ
โโโโ
โ
โ
โ
โโ
โโโ
โโ
โ
โ
โโโ
โ
โ
โโโโโโโโ
โโ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โโโ
โ
โ
โ
โ
โโ
โ
โ
โโโ
โโโโโ
โโ
โ
โ
โ
โ
โโโ
โ
โ
โโ
โโโ
โ
โโโโโ
โ
โ
โโโโโโโโโ
โ
โโโ
โ
โ
โ
โ
โโโ
โ
โโโโ
โ
โ
โ
โโโ
โ
โโ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โโ
โ
โโโ
โ
โโ
โ
โ
โโโ
โโโโโ
โ
โโ
โ
โ
โ
โโโ
โ
โ
โ
โ
โโ
โโ
โโโ
โ
โโโโโโโ
โ
โโ
โโโโโโโโ
โ
โโ
โโโ
โโ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โโ
โโ
โโ
โ
โโ
โ
โโ
โ
โโโโ
โ
โโโโ
โ
โ
โ
โโโโ
โ
โโโ
โ
โ
โโ
โ
โโโโโโ
โ
โ
โ
โโ
โ
โโ
โ
โโ
โ
โ
โ
โ
โโ
โ
โโโโ
โ
โโโโโโ
โ
โ
โโ
โ
โโ
โโ
โโโ
โโโโโ
โโ
โ
โโโโโ
โ
โโโโโโ
โ
โ
โ
โ
โโ
โ
โโโโโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโโ
โ
โ
โโโ
โ
โ
โโโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โโ
โโ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโโ
โโ
โโโโ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโโ
โ
โ
โโโ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โโ
โโโ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โโ
โโ
โ
โ
โ
โโโโ
โ
โ
โโ
โ
โโ
โ
โโ
โโโโ
โ
โ
โโ
โ
โ
โ
โโโ
โ
โโโ
โ
โ
โ
โ
โ
โโโ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโโ
โโโโ
โโ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โโโ
โ
โโ
โโ
โ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโ
โ
โ
โโโ
โ
โโโโ
โโโโ
โโ
โ
โโ
โ
โโ
โโโโโ
โ
โ
โ
โ
โโโ
โโ
โ
โโ
โ
โ
โโโโโ
โ
โ
โโ
โ
โ
โโโ
โโ
โโ
โ
โ
โ
โโโโโ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โ
โโ
โโโโ
โ
โโ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โโ
โ
โโโ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโโ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโ
โโโ
โโ
โโ
โโ
โ
โโ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โโ
โ
โโ
โโโ
โ
โ
โ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โโ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โโโ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โโโโโ
โ
โโโ
โ
โโ
โโ
โโโโ
โ
โโ
โโโ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โโโ
โโโ
โโ
โ
โโ
โ
โโ
โโโโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โโ
โ
โ
โโโโ
โ
โโ
โโโโ
โ
โโโ
โ
โ
โ
โ
โโโโ
โ
โโโ
โ
โโโ
โ
โ
โโโ
โ
โ
โ
โ
โโ
โ
โโโ
โ
โโโ
โโ
โ
โโ
โโโโโโ
โ
โ
โ
โโโโ
โ
โโ
โ
โ
โโโ
โโ
โโ
โ
โ
โ
โ
โโ
โ
โโ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โโ
โโ
โโ
โโ
โ
โโ
โ
โโ
โ
โโ
โ
โโ
โโโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโโ
โ
โ
โ
โ
โ
โ
โโโโโโ
โ
โ
โโโ
โ
โ
โ
โโ
โโโ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โโ
โ
โโ
โ
โ
โ
โโ
โ
โ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โโ
โโ
โโ
โ
โ
โ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโโโ
โโโ
โ
โโโ
โโโ
โโโ
โโ
โโโโ
โ
โ
โ
โ
โโ
โโโ
โโโ
โ
โโโโ
โโโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโโโ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โโโโโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโโ
โ
โโ
โโ
โโ
โ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โโโ
โโโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โโโ
โโโ
โ
โ
โ
โโ
โ
โ
โโโโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โโ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โโโ
โ
โ
โโ
โโ
โ
โ
โโ
โ
โโ
โโ
โโ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โโโ
โโ
โโ
โ
โโ
โ
โ
โโ
โโโ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โโโ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โโ
โ
โ
โ
โโ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โโโ
โ
โโ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โโ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โโโ
โ
โ
โ
โโโโโ
โโ
โ
โโ
โ
โ
โ
โโโโโ
โ
โโ
โ
โโโ
โ
โโโ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โโ
โ
โโ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโโโโ
โ
โโ
โ
โโ
โ
โโโ
โ
โ
โ
โโ
โ
โ
โ
โโโ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โโ
โ
โ
โโ
โโ
โ
โ
โ
โโ
โโโ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โโ
โ
โ
โ
โโ
โโ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โโโโ
โ
โ
โโ
โ
โโโโโ
โโ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโโโ
โ
โ
โ
โโ
โโ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โโโ
โโ
โ
โ
โ
โโโโ
โ
โ
โ
โ
โ
โ
โโ
โ
โโโโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โโโ
โ
โ
โโ
โโโ
โ
โ
โโโโโโ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โโ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โ
โโ
โ
โ
โ
โโ
โโ
โโ
โ
โ
โโโ
โโ
โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
Note: R2 stabilizes at over 0.9 for the log-normal!
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Log-Log Regression on the Histogram
Bad as log-log regression of the survival function is, itโs stillbetter than log-log regression of the histogram
1 Loss of information (unlike survival function)2 Results depend on choice of bins for histogram3 Even bigger normalization issues4 Even worse errors โ comparatively larger fluctuations,
especially in the tail where they have the most leverage onthe regression
There may be times when log-log regression on the survivalfunction is reasonable (though I canโt think of any); there arenone when log-log regression on the histogram is
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Conclusions about Log-Log Regression
1 Do not use it.2 Do not believe papers using it.
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Estimating xmin
Need to estimate xminSimple for a pure power law: to maximize likelihood,xmin = min xiNot useful when it is only the tail which follows a power law
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Hill Plots
One approach: try various xmin, plot ฮฑ vs. xmin, look for stableregionCalled โHill plotโ after Hill (1975)Also gives an idea of fragility of results
> hill.estimator <- function(xmin,data){pareto.fit(data,xmin)$exponent}
> hill.plotter <- function(xmin,data){sapply(xmin,hill.estimator,data=data)}
> curve(hill.plotter(x,cities),from=min(cities),to=max(cities),log="x",main="Hill Plot for US City Sizes",xlab=expression(x_min),ylab=expression(alpha))
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
1e+00 1e+02 1e+04 1e+06
12
34
56
7
Hill Plot for US City Sizes
xmin
ฮฑฮฑ
Note log scale of horizontal axis
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Kolmogorov-Smirnov Distance
Kolmogorov-Smirnov statistic: measure of distance betweenone-dimensional cumulative distribution functions
DKS(F , G) = supx|F (x)โG(x)|
Here look at
DKS(xmin) = supxโฅxmin
|F โn (x)โ P(x ; ฮฑ, xmin)|
where P(x ; ฮฑ, xmin) is the Pareto survival function we get byassuming a given xmin and estimating
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Estimate xmin by Minimizing DKS
Pick the xmin where the distance between data and estimateddistribution is smallest
xmin = argminxminโxi
DKS(xmin)
Only considering actual data values is faster and seems to notmiss anythingAnother principled approach: BIC (Handcock and Jones, 2004),but we find that works slightly less well than minimum KS(Clauset et al., 2009)
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
> ks.test.for.pareto <- function(threshold,data) {model <- pareto.fit(data,threshold)d <- ks.test(data[data>=threshold],ppareto,
threshold=threshold,exponent=model$exponent)return(as.vector(d$statistic)) }
> ks.test.for.pareto.vectorized <- function(threshold,data){ sapply(threshold,ks.test.for.pareto,data=data) }
> curve(ks.test.for.pareto.vectorized(x,cities),from=min(cities),to=max(cities),xlab=expression(x[min]),ylab=expression(d[KS]),main="KS discrepancy vs. xmin for US cities")
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
0e+00 2e+06 4e+06 6e+06 8e+06
0.0
0.2
0.4
0.6
0.8
1.0
KS discrepancy vs. xmin for US cities
xmin
d KS
bxmin is evidently small
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
0e+00 2e+04 4e+04 6e+04 8e+04 1e+05
0.1
0.2
0.3
0.4
KS discrepancy vs. xmin for US cities
xmin
d KS
bxmin = 5.246ร 104
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Properties
1. In simulations, when there is a power law tail, this is good atfinding it2. When there isnโt a distinct tail but there is an asymptoticexponent, choses xmin such that ฮฑ becomes right3. Error estimates: bootstrap
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Nonparametric Density Estimation as an Alternative
All of this is assuming a power-law tail, i.e., parametric formOften this is neither justified nor important, but estimating thedistribution isCan then use non-parametric density estimation
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Kernel Density Estimation in One Slide
Data x1, x2, . . . xn
pn(x) =1n
nโi=1
1h
K(
x โ xi
hn
)where kernel K has K โฅ 0,
โซK (x)dx = 1,
โซxK (x)dx = 0,
0 <โซ
x2K (x)dx <โand bandwidth hn โ 0, nhn โโ as n โโcommon choice of K : standard Gaussian density ฯIdeally, hn = O(nโ1/3)Generally, pick hn by cross-validationbasic R command: density
better: use the np package from CRAN (Hayfield and Racine, 2008)
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Ordinary non-parametric estimation works poorly withheavy-tailed data, since it generally produces light tailsSpecial methods exist, e.g.:
transform data so [0,โ) 7โ [0, 1] monotonicallye.g., 2
ฯarctan x
do ordinary density estimation on transformed databeing careful to keep Pr ([0, 1]) = 1
apply reverse transformation to estimated density
See Markovitch and Krieger (2000) or Markovich (2007) (harderto read)
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Next time: how to tell the difference between power laws andother distributions
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
Clauset, Aaron, Cosma Rohilla Shalizi and M. E. J. Newman(2009). โPower-law distributions in empirical data.โ SIAMReview , forthcoming. URLhttp://arxiv.org/abs/0706.1062.
Handcock, Mark S. and James Holland Jones (2004).โLikelihood-based inference for stochastic models of sexualnetwork formation.โ Theoretical Population Biology , 65:413โ422. URL http://www.csss.washington.edu/Papers/wp29.pdf.
Hayfield, Tristen and Jeffrey S. Racine (2008). โNonparametricEconometrics: The np Package.โ Journal of StatisticalSoftware, 27(5): 1โ32. URLhttp://www.jstatsoft.org/v27/i05.
Hill, B. M. (1975). โA simple general approach to inferenceabout the tail of a distribution.โ Annals of Statistics, 3:
36-462 Lecture 15
Maximum LikelihoodLog-Log Regression
Finding the Scaling RegionNonparametric Density Estimation
References
1163โ1174. URLhttp://www.jstor.org/pss/2958370.
Markovich, Natalia (2007). Nonparametric Analysis ofUnivariate Heavy-Tailed Data: Research and Practice. NewYork: John Wiley.
Markovitch, Natalia M. and Udo R. Krieger (2000).โNonparametric estimation of long-tailed density functionsand its application to the analysis of World Wide Web traffic.โPerformance Evaluation, 42: 205โ222.doi:10.1016/S0166-5316(00)00031-6.
36-462 Lecture 15