Skip to content
GitLab
Explore
Sign in
Primary navigation
Search or go to…
Project
ce089
Manage
Activity
Members
Labels
Plan
Issues
Issue boards
Milestones
Wiki
Code
Merge requests
Repository
Branches
Commits
Tags
Repository graph
Compare revisions
Build
Pipelines
Jobs
Pipeline schedules
Artifacts
Deploy
Releases
Harbor Registry
Model registry
Operate
Environments
Monitor
Incidents
Analyze
Value stream analytics
Contributor analytics
CI/CD analytics
Repository analytics
Model experiments
Help
Help
Support
GitLab documentation
Compare GitLab plans
Community forum
Contribute to GitLab
Provide feedback
Keyboard shortcuts
?
Snippets
Groups
Projects
Show more breadcrumbs
Walmes Marques Zeviani
ce089
Commits
d2cd0ed9
Commit
d2cd0ed9
authored
6 years ago
by
Walmes Marques Zeviani
Browse files
Options
Downloads
Patches
Plain Diff
Adiciona slides de Jackknife.
parent
5cd3a975
No related branches found
Branches containing commit
No related tags found
No related merge requests found
Changes
4
Hide whitespace changes
Inline
Side-by-side
Showing
4 changed files
_site.yml
+2
-0
2 additions, 0 deletions
_site.yml
img/swiss-knife.png
+0
-0
0 additions, 0 deletions
img/swiss-knife.png
slides/07-jackknife.Rnw
+226
-0
226 additions, 0 deletions
slides/07-jackknife.Rnw
slides/config/refs.bib
+34
-0
34 additions, 0 deletions
slides/config/refs.bib
with
262 additions
and
0 deletions
_site.yml
+
2
−
0
View file @
d2cd0ed9
...
@@ -41,6 +41,8 @@ navbar:
...
@@ -41,6 +41,8 @@ navbar:
href
:
tutoriais/04-rel-va.html
href
:
tutoriais/04-rel-va.html
-
text
:
"
GNA
para
Normal
-
Box
Muller"
-
text
:
"
GNA
para
Normal
-
Box
Muller"
href
:
tutoriais/05-box-muller.html
href
:
tutoriais/05-box-muller.html
-
text
:
"
Jackknife"
href
:
slides/07-jackknife.pdf
-
text
:
"
----------"
-
text
:
"
----------"
-
text
:
"
Arquivos
complementares"
-
text
:
"
Arquivos
complementares"
-
text
:
"
GNA
Uniformes
(2015)"
-
text
:
"
GNA
Uniformes
(2015)"
...
...
This diff is collapsed.
Click to expand it.
img/swiss-knife.png
0 → 100644
+
0
−
0
View file @
d2cd0ed9
90 KiB
This diff is collapsed.
Click to expand it.
slides/07-jackknife.Rnw
0 → 100644
+
226
−
0
View file @
d2cd0ed9
%-----------------------------------------------------------------------
\documentclass[serif, professionalfont, usenames, dvipsnames]{beamer}
\usepackage[T1]{fontenc}
% ATTENTION: preamble.tex contains all style definitions.
\input{config/preamble.tex}
% \usepackage[backend=bibtex, style=authoryear]{biblatex}
\addbibresource{config/refs.bib}
<<include = FALSE>>=
source("config/setup.R")
@
%-----------------------------------------------------------------------
\title{O método Jackknife}
\subtitle{Fundamentos e aplicações}
\date{\small{ \Sexpr{sprintf('Atualizado em %s', Sys.Date())}}}
%-----------------------------------------------------------------------
\begin{document}
{\setbeamertemplate{footline}{}
\frame{\titlepage} %--------------------------------------------------
}
\begin{frame}{}
{\large Justificativas}
\begin{itemize}
\item Métodos computacionalmente intensivos para inferência
estatística são usados quando as abordagens tradicionais não são
adequadas.
\begin{itemize}
\item Resultados assintóticos em pequenas amostras.
\item Violação de pressupostos.
\item Não existência de mecanísmos de inferência específicos.
\end{itemize}
\item Tais métodos se baseiam em reamostragem e/ou simulação.
\item Podem ser aplicados em muitos contextos.
\end{itemize}
{\large Objetivos}
\begin{itemize}
\item Apresentar a ideia principal sobre o método Jackknife.
\item Ilustrar propriedades com aplicações.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}
\mytwocolumns{0.49}{0.49}{
\begin{itemize}
\item O método Jackknife foi proposto por \cite{Quenouille1956}.
\item Jackknife refere-se a um canivete suiço, fácil de carregar e de
várias utilidades.
\item Devido a isso, \cite{Tukey1958} cunhou o termo em Estatística
como uma abordagem geral para testar hipóteses e calcular intervalos
de confiança.
\end{itemize}
}{
\begin{center}
\includegraphics[width=5cm]{../img/swiss-knife.png}
\end{center}
}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Amostras Jackknife}
% TODO: http://csyue.nccu.edu.tw/ch/Jackknife_Notes.pdf
As amostras Jackknife são definidas por deixar $k$ observações de fora
do conjunto observado $x = \{x_1, x_2, \ldots, x_n\}$ por vez.
O caso mais prático e comum é quando $k = 1$. Assim a amostra
Jackknife $i$ é definida como
\begin{equation}
x_{(i)} = \{x_1, x_2, \ldots, x_{i-1}, x_{i+1}, \ldots, x_n\},
\end{equation}
com $i = 1, 2, \ldots, n$.
\begin{itemize}
\item O tamanho de cada amostra Jackknife é $m = n - k$.
\item O número de amostras distintas é $\binom{n}{k}$.
\item No caso de $k = 1$, denota-se por $\{x_{(i)}\}$ com $i=1, \ldots, n$.
\item As amostras são obtidas de forma sistemática, portanto, trata-se
de uma abordagem determinística.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{A intuição do método}
A ideia é fundamentada no estimador da média
\begin{equation}
\bar{X} = \frac{1}{n} \sum_{i=1}^{n} X_i.
\end{equation}
A média com a $j$-ésima observação removida é calculada por
\begin{equation}
\bar{X}_{-j} = \frac{1}{n - 1} \left( \sum_{i=1}^{n} X_i \right) - X_j.
\end{equation}
Combinando as expressões anteriores, pode-se determinar o valor de $X_j$
por
\begin{equation}
X_j = n\bar{X} - (n - 1) \bar{X}_{-j}.
\end{equation}
Essa expressão não tem valor prático para o caso da média, porém tem
utilidade para outras estatísticas.
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Definição}
Suponha que $\theta$ seja um parâmetro a ser estimado a partir de uma
função dos dados
\begin{equation}
\hat{\theta} = f(X_1, X_2, \ldots, X_n).
\end{equation}
A estimativa em cada amostra Jackknife é aquela obtida deixando $k$
observações de fora por vez. No caso de $k=1$, é definida por
\begin{equation}
\hat{\theta}_{-i} = f(X_1, X_2, \ldots, X_{i-1}, X_{i+1}, \ldots, X_n) = f(X_{(i)}),
\end{equation}
é chamada de estimativa parcial.
A quantidade
\begin{equation}
\theta_{(i)} = n \hat{\theta} - (n - 1) \hat{\theta}_{-i}
\end{equation}
é denominada de \hi{pseudo-valor} e se baseia nas diferenças
ponderadas da estimativa com todas as observações ($\hat{\theta}$) e
na \hi{estimativa parcial}, ou seja, aquela sem a $i$-ésima observação
($\hat{\theta}_{-i}$).
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Estimativa pontual e variância}
O estimador pontual de Jackknife é definido por
\begin{equation}
\tilde{\theta} = \frac{1}{n} \sum_{i = 1}^{n} \theta_{(i)},
\end{equation}
ou seja, é \hi{a média dos pseudo-valores}.
ATENÇÃO: Os valores $\hat{\theta}$ e $\tilde{\theta}$ não são
necessariamente iguais nos casos gerais.
Se for assumido que os valores $\theta_{(i)}$, $i = 1, \ldots, n$, são
independentes, a variância do estimador de Jackknife e dada por
\begin{equation}
\text{Var}(\tilde{\theta}) = \frac{S_{\theta}^2}{n},
\quad S^2 = \frac{1}{n - 1}
\sum_{i = 1}^n (\theta_{(i)} - \tilde{\theta})^2.
\end{equation}
\end{frame}
%-----------------------------------------------------------------------
\begin{frame}{Detalhes}
De acordo com \cite{efron2016computerage}
\begin{itemize}
\item É um \hi{procedimento não paramétrico} pois nenhuma suposição é
feita sobre a distribuição dos dados.
\item É facilmente automatizável. Um único algoritmo pode ser escrito
tendo como argumentos a amostra e a estatística de interesse $f(.)$.
\item É determinístico, portanto, toda execução do procedimento irá
fornecer os meus resultados.
\item Existe a suposição implicita de comportamento suave da função
$f$ em relação a cada elemento da amostra Jackknife.
\item O erro-padrão de Jackknife é viciado para estimar o verdadeiro
erro padrão, pois os pseudo-valores não são independentes.
\end{itemize}
\end{frame}
%-----------------------------------------------------------------------
{
\usebackgroundtemplate{\includegraphics[height=\paperheight, width=\paperwidth]{../img/looking-ahead.jpg}}
% \setbeamersize{text margin left=30mm}
\begin{frame}[b]{}
\hspace*{0.5\linewidth}
\begin{minipage}[t]{0.5\linewidth}
\hi{Próxima aula}
\begin{itemize}
\item Implementação e aplicações de Jackknife.
\end{itemize}
\hi{Avisos}
\begin{itemize}
\item Sabatina estará disponível a partir de Qua.
\end{itemize}
\vspace{3em}
\end{minipage}
\end{frame}
}
%-----------------------------------------------------------------------
\begin{frame}[t, fragile, allowframebreaks]
\frametitle{Referências bibliográficas}
\printbibliography[heading=none]
\end{frame}
%-----------------------------------------------------------------------
\end{document}
This diff is collapsed.
Click to expand it.
slides/config/refs.bib
+
34
−
0
View file @
d2cd0ed9
...
@@ -15,3 +15,37 @@
...
@@ -15,3 +15,37 @@
year
=
{2013}
,
year
=
{2013}
,
publisher
=
{Editora UFLA}
publisher
=
{Editora UFLA}
}
}
@article
{
Quenouille1956
,
doi
=
{10.2307/2332914}
,
url
=
{https://doi.org/10.2307/2332914}
,
year
=
{1956}
,
month
=
{dec}
,
publisher
=
{{JSTOR}}
,
volume
=
{43}
,
number
=
{3/4}
,
pages
=
{353}
,
author
=
{M. H. Quenouille}
,
title
=
{Notes on Bias in Estimation}
,
journal
=
{Biometrika}
}
@article
{
Tukey1958
,
doi
=
{10.1214/aoms/1177706647}
,
year
=
{1958}
,
volume
=
{2}
,
number
=
{29}
,
pages
=
{614}
,
author
=
{John W. Tukey}
,
title
=
{Bias and confidence in not quite large samples (abstract)}
,
journal
=
{The Annals of Mathematical Statistics}
}
@Book
{
efron2016computerage
,
Title
=
{Computer Age Statistical Inference: Algorithms, Evidence, and Data Science (Institute of Mathematical Statistics Monographs)}
,
Author
=
{Bradley Efron and Trevor Hastie}
,
Publisher
=
{Cambridge University Press}
,
Year
=
{2016}
,
Url
=
{https://www.amazon.com/Computer-Age-Statistical-Inference-Mathematical-ebook/dp/B01L27MR64?SubscriptionId=0JYN1NVW651KCA56C102&tag=techkie-20&linkCode=xm2&camp=2025&creative=165953&creativeASIN=B01L27MR64}
}
This diff is collapsed.
Click to expand it.
Preview
0%
Loading
Try again
or
attach a new file
.
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Save comment
Cancel
Please
register
or
sign in
to comment