Skip to content
Snippets Groups Projects
Commit 53396427 authored by Walmes Marques Zeviani's avatar Walmes Marques Zeviani
Browse files

Adds slides used in Funpesp conference.

parent f3a9a629
Branches master
No related tags found
No related merge requests found
%-----------------------------------------------------------------------
\documentclass[serif, professionalfont, usenames, dvipsnames, aspectratio = 169]{beamer}
\usepackage[T1]{fontenc}
% ATTENTION: preamble.tex contains all style definitions.
\input{config/preamble.tex}
% \usepackage[backend=bibtex, style=authoryear]{biblatex}
\addbibresource{config/refs.bib}
<<include = FALSE>>=
source("config/setup.R")
@
%-----------------------------------------------------------------------
\title{Métodos baseados em reamostragem e simulação computacional}
\subtitle{Aplicações em Estatística e Data Science}
\date{\small{ \Sexpr{sprintf('Atualizado em %s', Sys.Date())}}}
%-----------------------------------------------------------------------
\begin{document}
{\setbeamertemplate{footline}{}
\frame{\titlepage} %--------------------------------------------------
}
\begin{frame}{}
{\large Objetivos}
\begin{itemize}
\item Apresentar uma \textbf{visão geral} dos métodos.
\item Apresentar aplicações em Estatística, Data Science e Machine
Learning.
\end{itemize}
\vspace{2em}
{\large Ao final você...}
\begin{itemize}
\item Saberá a distinção entre métodos computacionalmente intensivos.
\item Reconhecerá onde eles são aplicações no cotidiano.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}
\vspace{5em}
\hspace{4em} \Huge{Método Jackknife}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}
\mytwocolumns{0.49}{0.49}{
\begin{itemize}
\item O método Jackknife foi proposto por \cite{Quenouille1956}.
\item Jackknife refere-se a um canivete suiço, fácil de carregar e
de várias utilidades.
\item Devido a isso, \cite{Tukey1958} cunhou o termo em Estatística
como uma abordagem geral para testar hipóteses e calcular
intervalos de confiança.
\item A base do Jackknife é o \textbf{leave-one-out}.
\end{itemize}
}{
\begin{center}
\includegraphics[width=5cm]{../img/swiss-knife.png}
\end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Amostras Jackknife}
% TODO: http://csyue.nccu.edu.tw/ch/Jackknife_Notes.pdf
As amostras Jackknife são definidas por deixar $k$ observações de fora
do conjunto observado $x = \{x_1, x_2, \ldots, x_n\}$ por vez.
O caso mais prático e comum é quando $k = 1$. Assim a amostra
Jackknife $i$ é definida como
\begin{equation}
x_{(i)} = \{x_1, x_2, \ldots, x_{i-1}, x_{i+1}, \ldots, x_n\},
\end{equation}
com $i = 1, 2, \ldots, n$.
\begin{itemize}
\item O tamanho de cada amostra Jackknife é $m = n - k$.
\item O número de amostras distintas é $\binom{n}{k}$.
\item No caso de $k = 1$, denota-se por $\{x_{(i)}\}$ com $i=1, \ldots, n$.
\item As amostras são obtidas de forma sistemática, portanto, trata-se
de uma abordagem determinística.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{A intuição do método para estimação de parâmetros}
A ideia é fundamentada no estimador da média
\begin{equation}
\bar{X} = \frac{1}{n} \sum_{i=1}^{n} X_i.
\end{equation}
A média com a $j$-ésima observação removida é calculada por
\begin{equation}
\bar{X}_{-j} = \frac{1}{n - 1} \left( \sum_{i=1}^{n} X_i \right) - X_j.
\end{equation}
Combinando as expressões anteriores, pode-se determinar o valor de $X_j$
por
\begin{equation}
X_j = n\bar{X} - (n - 1) \bar{X}_{-j}.
\end{equation}
Essa expressão não tem valor prático para o caso da média, porém tem
utilidade para outras estatísticas.
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Definição}
Suponha que $\theta$ seja um parâmetro a ser estimado a partir de uma
função dos dados
\begin{equation}
\hat{\theta} = f(X_1, X_2, \ldots, X_n).
\end{equation}
A estimativa em cada amostra Jackknife é aquela obtida deixando $k$
observações de fora por vez. No caso de $k=1$, é definida por
\begin{equation}
\hat{\theta}_{-i} = f(X_1, X_2, \ldots, X_{i-1}, X_{i+1}, \ldots, X_n) = f(X_{(i)}),
\end{equation}
é chamada de estimativa parcial.
A quantidade
\begin{equation}
\theta_{(i)} = n \hat{\theta} - (n - 1) \hat{\theta}_{-i}
\end{equation}
é denominada de \hi{pseudo-valor} e se baseia nas diferenças
ponderadas da estimativa com todas as observações ($\hat{\theta}$) e
na \hi{estimativa parcial}, ou seja, aquela sem a $i$-ésima observação
($\hat{\theta}_{-i}$).
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Estimativa pontual e variância}
O estimador pontual de Jackknife é definido por
\begin{equation}
\tilde{\theta} = \frac{1}{n} \sum_{i = 1}^{n} \theta_{(i)},
\end{equation}
ou seja, é \hi{a média dos pseudo-valores}.
ATENÇÃO: Os valores $\hat{\theta}$ e $\tilde{\theta}$ não são
necessariamente iguais nos casos gerais.
Se for assumido que os valores $\theta_{(i)}$, $i = 1, \ldots, n$, são
independentes, a variância do estimador de Jackknife e dada por
\begin{equation}
\text{Var}(\tilde{\theta}) = \frac{S_{\theta}^2}{n},
\quad S^2 = \frac{1}{n - 1}
\sum_{i = 1}^n (\theta_{(i)} - \tilde{\theta})^2.
\end{equation}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Aplicações em Estatística}
\mytwocolumns{0.49}{0.49}{
O conceito de \textbf{leave-one-out} é usado em várias situações.
\begin{itemize}
\item Diagnóstico em modelos de regressão: impacto de observações,
resíduos studentizados externamente, etc.
\item Capacidade preditiva de modelos: LOOCV (validação cruzada
leave-one-out) e PRESS (prediction residual error sum of squares).
\item A \textbf{valiação cruzada} tradicional é um exemplo de
leave-one-out mas com batches.
\end{itemize}
}{
\begin{center}
\includegraphics[width=6cm]{../img/K-fold-cross-validation-method.png}
\end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Detalhes}
De acordo com \cite{efron2016computerage}
\begin{itemize}
\item É um \hi{procedimento não paramétrico} pois nenhuma suposição é
feita sobre a distribuição dos dados.
\item É facilmente automatizável. Um único algoritmo pode ser escrito
tendo como argumentos a amostra e a estatística de interesse $f(.)$.
\item É determinístico, portanto, toda execução do procedimento irá
fornecer os meus resultados.
\item Existe a suposição implicita de comportamento suave da função
$f$ em relação a cada elemento da amostra Jackknife.
\item O erro-padrão de Jackknife é viciado para estimar o verdadeiro
erro padrão, pois os pseudo-valores não são independentes.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}
\vspace{5em}
\hspace{4em} \Huge{Método Bootstrap}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Bootstrap: visão geral}
\mytwocolumns{0.59}{0.39}{
\begin{itemize}
\item Boostrap foi apresentado de forma sistematizada por
\cite{Efron1979}.
\item Bootstrap é um \hi{método de reamostragem} que pode usado para
avaliar propriedades de estimadores e fazer inferência.
\item Bootstrap é um método de Monte Carlo pois usa a
\hi{distribuição empírica} dos dados como se fosse a verdadeira
distribuição.
\item Principais aplicações de bootstrap:
\begin{itemize}
\item Avaliar propriedades da distribuição de estimadores para
seleção, ajuste de vício, etc.
\item Substituir ou aprimorar a adequação de abordagens
assintóticas em amostras pequenas: intervalos de confiança,
testes de hipótese.
\end{itemize}
\end{itemize}
}{
\begin{center}
\includegraphics[width=4cm]{../img/N_Bootstraps00094.jpg}
\end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Funcionamento como método de estimação de parâmetros}
\begin{itemize}
\item Considere uma amostra de observações iid $x_i$, $i = 1, \ldots, n.$
\item Usando a distribuição empírica, cada valor $x_i$ tem igual
probabilidade de $1/n$ de ocorrer.
\item Considere que $\theta$ seja um parâmetro de interesse que dispõe
de um estimador $\hat{\theta} = f(X_1, \ldots, X_n)$.
\item Uma \hi{amostra bootstrap} é um conjunto de valores extraídos ao
acaso \hi{com reposição} da amostra original.
\item A estimativa de $\theta$ na $b$-ésima reamostra bootstrap é
$\hat{\theta}_b^\star$.
\item A estimativa pontual bootstrap é o valor médio
\begin{equation}
\hat{\theta}^\star = \frac{1}{B} \sum_{b = 1}^{B} \hat{\theta}_b^\star
\end{equation}
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}[allowframebreaks]{Intervalos de confiança}
\begin{itemize}
\item O intervalo de confiança padrão bootstrap é calculado por
\begin{eqnarray}
\text{estimativa bootstrap}\!\! &\pm& \!\! \text{quantil}_{\alpha/2}\cdot \text{erro padr\~ao bootstrap}\\
\hat{\theta}^\star \!\! &\pm& \!\! z_{\alpha/2} \left(\sum_{b = 1}^B \frac{(\hat{\theta}_b^\star - \hat{\theta}^\star)^2}{B - 1} \right).
\end{eqnarray}
\item Assume-se que
\begin{enumerate}
\item $\hat{\theta}$ tem distribuição aproximadamente normal;
\item $\hat{\theta}$ é um estimador não viciado.
\end{enumerate}
\item Este tipo de intervalo não requer um valor alto para $B$.
\item O vício do estimador pode ser determinado pelo próprio procedimento.
\framebreak
\item O intervalo de confiança padrão bootstrap (IC-padrão) é válido e
pode ser usado em situações em que inferência assintótica é difícil
de aplicar.
\item O IC-padrão é assintoticamente acurado tal como são os
intervalos baseados na distribuição normal.
\item Intervalos feitos usando quantis da distribuição $t$ são mais
acurados para estimadores em amostras pequenas.
\item Muitas variações do IC-padrão foram desenvovidas para produzir
inferência de melhor qualidade.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Intervalos de confiança}
\begin{itemize}
\item O intervalo de confiança percentil bootstrap é determinado por
\begin{equation}
(\hat{\theta}_{\alpha/2}^\star, \hat{\theta}_{1 - \alpha/2}^\star),
\end{equation}
que correspondem aos percentis $\alpha/2$ e $1 - \alpha/2$.
\item Este intervalo
\begin{enumerate}
\item não faz suposições sobre a distribuição de $\hat{\theta}$;
\item requer maior valor para $B$ que o intervalo de confiança padrão.
\end{enumerate}
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Ajuste de vício}
\begin{itemize}
\item O bootstrap fornece uma abordagem intuitiva
\begin{equation}
\text{E}(\hat{\theta} - \theta) \approx \text{E}_B(\hat{\theta}_j^\star - \hat{\theta}) = \hat{\theta}^\star - \hat{\theta}.
\end{equation}
\item Ou seja, considere a distribuição empírica como sendo a
distribuição verdadeira e determine o viés médio usando a média das
amostras bootstrap.
\item Atenção: ao estimar o vício deveria-se adicionar o erro
amostral.
\end{itemize}
Conteúdo baseado em \url{https://ocw.mit.edu/courses/sloan-school-of-management/15-450-analytics-of-finance-fall-2010/lecture-notes/MIT15_450F10_lec09.pdf}.
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Aplicações em Estatística}
\mytwocolumns{0.39}{0.59}{ O Boostrap é aplicado em várias situações
além das relacionadas à inferência estatística.
\begin{itemize}
\item Estudos de dimensionamento de parcelas para amostragem:
\url{http://leg.ufpr.br/~walmes/analises/APDCorte/analise.html}.
\item É usado no treinamento de algorítmos de ML baseados em
\hi{bagging} como random forest.
\item É usado para avaliar a capacidade preditiva de modelos.
\end{itemize}
}{
\begin{center}
\includegraphics[width=7.5cm]{../img/1*e3Ku9LrQGmJCytvZzjTRVw.png}
\end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}
\vspace{5em}
\hspace{4em} \Huge{Métodos Monte-Carlo}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{O que são métodos de Monte de Carlo}
\begin{itemize}
\item Corresponde a métodos baseados em simulação estocástica massiva
para:
\begin{itemize}
\item Aproximação de funções e de integrais.
\item Estimação de valores médios ou obtenção de distribuições
amostrais.
\item Avaliação de propriedades de um estimador pontual/intervalar.
\item Avaliação de propriedades de testes de hipótese.
\item Determinação de tamanhos amostrais e curvas de poder.
\item Dentre outras várias aplicações.
\end{itemize}
\item Em outras palavras, envolvem a simulação de experimentos ou
sistemas em que pelo menos um componente aleatório esteja presente
\parencite{ferreira2013estcompjava}.
\item É imprescindivel, portanto, recursos para geração de números
aleatórios das distribuições envolvidas no problema.
\item Métodos de bootstrap e de testes de aleatorização são casos
particulares de Monte Carlo.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
% Método de Monte Carlo para determinar a taxa de erro tipo I de teste.
\begin{frame}{Exemplo: avaliar a taxa de erro tipo I de um teste de hipótese}
\begin{enumerate}
\item Gerar uma realização do modelo assumido para os dados sob a
hipótese nula.
\item Sob a hipótese nula, delimitar a região de aceitação e rejeição
considerando nível de significância $\alpha$.
\item Aplicar o teste sob os dados simulados.
\item A partir do teste, tomar a decisão correspondente e guardar o
resultado.
\item Repetir de 1 a 4 $M$ vezes.
\item Calcular a proporção de vezes em foi feita a rejeição da
hipótese nula.
\item Se a proporção for superior a $\alpha$, o teste é liberal, caso
contrário é conservador, para o nível de significância adotado.
\end{enumerate}
\end{frame}
%-----------------------------------------------------------------------
% Método de Monte Carlo para determinar a taxa de cobertura de IC.
\begin{frame}{Exemplo: avaliar a taxa de cobertura de um estimador intervalar}
\begin{enumerate}
\item Gerar uma realização do modelo assumido para os dados.
\item Definir o nível de confiança $1 - \alpha$ para obtenção dos
intervalos de confiança.
\item Determinar o intervalo de confiança com os dados simulados.
\item Verificar se o intervalo construído contém o verdadeiro valor do
parâmetro usado para simular os dados e guardar o resultado.
\item Repetir de 1 a 4 $M$ vezes.
\item Calcular a proporção de vezes em que o intervalo conteve o valor do parâmetro.
\item Se a proporção for superior a $1 - \alpha$, o intervalo é conservador, caso
contrário é liberal, para o nível de confiança adotado.
\end{enumerate}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Exemplo: construção da curva de poder do teste}
Curva de poder sob um tamanho de amostra fixo.
\begin{enumerate}
\item Defina um conjunto de valores
$\Delta = \{0, \delta, 2\delta, \ldots, k\delta\}$ em que $0$
corresponde à hipótese nula $H_0: \theta = \theta_0$. Os demais
correspondem a incrementos $\delta$ em $\theta_0$ e fazem o
afastamento da $H_0$ com relação ao parâmetro sob hipótese $\theta$.
\item Sob $H_0$, delimitar a região de aceitação e rejeição
considerando nível de significância $\alpha$.
\item Para cada valor em $\Delta$, definir
$\theta_a = \theta_0 + \Delta_i$ ($i = 0, \ldots, k$), então
\begin{enumerate}
\item Gerar uma realização do modelo assumido para os dados usando
$\theta_a$.
\item Aplicar o teste para $H_0$ com os dados simulados.
\item A partir do teste, tomar a decisão correspondente e guardar o
resultado.
\item Repetir de 1 a 3 $M$ vezes.
\item Calcular a proporção de vezes em foi feita a rejeição de $H_0$.
\end{enumerate}
\item Fazer o gráfico da taxa de rejeição de $H_0$ para cada valor em $\Delta$.
\end{enumerate}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Aplicações em Estatística e Ciência}
\mytwocolumns{0.49}{0.49}{
\begin{itemize}
\item Simulação de fenômenos ecológicos/físicos/epidemiológicos
complexos: \url{https://www.youtube.com/watch?v=wkbIZ9NgC3o}.
\item Método alternativo para construção de testes de hipótese:
simulação sob hipótese nula: envelope simulado.
\end{itemize}
}{
\begin{center}
\includegraphics[width=7.5cm]{../img/simulation2.png}
\end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Considerações finais}
\mytwocolumns{0.49}{0.49}{
\begin{itemize}
\item Os métodos são todos \hi{computacionalmente intensivos}.
\item Ampliar os ferramental do Estatístico/Cientista de Dados.
\item São usados em vários contextos, desde inferenciais a
preditivos.
\end{itemize}
}{
\begin{center}
\includegraphics[width=4.0cm]{../img/efron.jpg}
\end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Contato}
\mytwocolumns{0.49}{0.49}{
\begin{itemize}
\item \url{leg.ufpr.br/~walmes}
\item \url{@walmeszeviani}
\item \url{walmes@ufpr.br}
\item \url{omegadatascience.com.br}
\item \url{@omegadatascience}
\end{itemize}
}{
% \begin{center}
% \includegraphics[width=4.5cm]{../img/efron.jpg}
% \end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}[t, fragile, allowframebreaks]
\frametitle{Referências bibliográficas}
\printbibliography[heading=none]
\end{frame}
%-----------------------------------------------------------------------
\end{document}
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment