From b6c4e55acddde57dd49ff7c750cb98574caef6b2 Mon Sep 17 00:00:00 2001
From: Muriki <mgy20@inf.ufpr.br>
Date: Sun, 26 May 2024 22:27:36 -0300
Subject: [PATCH] Ajustado repo

---
 .../TESTE_COHEND.ipynb                        |   0
 {Testes_norm => Notebooks_R}/TESTE_F.ipynb    | Bin
 {Testes_norm => Notebooks_R}/TESTE_KS.ipynb   |   0
 {Testes_norm => Notebooks_R}/TESTE_T.ipynb    |   0
 .../.ipynb_checkpoints/run-checkpoint.sh      |   6 -
 .../teste_cohend-checkpoint.r                 | 139 ---------------
 .../.ipynb_checkpoints/teste_f-checkpoint.r   | 128 --------------
 .../.ipynb_checkpoints/teste_ks-checkpoint.r  | 167 ------------------
 .../.ipynb_checkpoints/teste_t-checkpoint.r   | 152 ----------------
 Testes_norm/{raw_tests => }/run.sh            |   0
 Testes_norm/{raw_tests => }/teste_cohend.r    |   6 +-
 Testes_norm/{raw_tests => }/teste_f.r         |   6 +-
 Testes_norm/{raw_tests => }/teste_ks.r        |   6 +-
 Testes_norm/{raw_tests => }/teste_t.r         |   6 +-
 14 files changed, 12 insertions(+), 604 deletions(-)
 rename {Testes_norm => Notebooks_R}/TESTE_COHEND.ipynb (100%)
 rename {Testes_norm => Notebooks_R}/TESTE_F.ipynb (100%)
 rename {Testes_norm => Notebooks_R}/TESTE_KS.ipynb (100%)
 rename {Testes_norm => Notebooks_R}/TESTE_T.ipynb (100%)
 delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh
 delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r
 delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r
 delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r
 delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r
 rename Testes_norm/{raw_tests => }/run.sh (100%)
 rename Testes_norm/{raw_tests => }/teste_cohend.r (96%)
 rename Testes_norm/{raw_tests => }/teste_f.r (96%)
 rename Testes_norm/{raw_tests => }/teste_ks.r (96%)
 rename Testes_norm/{raw_tests => }/teste_t.r (96%)

diff --git a/Testes_norm/TESTE_COHEND.ipynb b/Notebooks_R/TESTE_COHEND.ipynb
similarity index 100%
rename from Testes_norm/TESTE_COHEND.ipynb
rename to Notebooks_R/TESTE_COHEND.ipynb
diff --git a/Testes_norm/TESTE_F.ipynb b/Notebooks_R/TESTE_F.ipynb
similarity index 100%
rename from Testes_norm/TESTE_F.ipynb
rename to Notebooks_R/TESTE_F.ipynb
diff --git a/Testes_norm/TESTE_KS.ipynb b/Notebooks_R/TESTE_KS.ipynb
similarity index 100%
rename from Testes_norm/TESTE_KS.ipynb
rename to Notebooks_R/TESTE_KS.ipynb
diff --git a/Testes_norm/TESTE_T.ipynb b/Notebooks_R/TESTE_T.ipynb
similarity index 100%
rename from Testes_norm/TESTE_T.ipynb
rename to Notebooks_R/TESTE_T.ipynb
diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh b/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh
deleted file mode 100644
index 4c43eda..0000000
--- a/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh
+++ /dev/null
@@ -1,6 +0,0 @@
-#!/bin/bash
-
-Rscript ./teste_ks.r
-Rscript ./teste_f.r
-Rscript ./teste_t.r
-Rscript ./teste_cohend.r
diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r
deleted file mode 100644
index a9c810e..0000000
--- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r
+++ /dev/null
@@ -1,139 +0,0 @@
-#!/usr/bin/env Rscrit
-
-# Function to remove outliers using the IQR method
-remove_outliers <- function(data) {
-  # Calculate the interquartile range (IQR)
-  Q1 <- quantile(data, 0.25)
-  Q3 <- quantile(data, 0.75)
-  IQR <- Q3 - Q1
-  
-  # Define the lower and upper bounds
-  lower_bound <- Q1 - 1.5 * IQR
-  upper_bound <- Q3 + 1.5 * IQR
-  
-  # Remove outliers
-  cleaned_data <- data[data >= lower_bound & data <= upper_bound]
-  
-  # Return the cleaned data
-  return(cleaned_data)
-}
-
-
-# Carrega CSV
-options(warn = -1)
-library(effsize)
-df = read.csv("../../dados/escola_integers.csv", sep="|")
-#head(df)
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_cohend")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0));
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-            
-# Separa os anos em amostras
-ANO <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra de um ano
-            X <- df[col1]
-            data1 <- X[ANO == ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-
-            # Remove NaN, outliers e ordena
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-
-            # Ajusta dados em histogramas
-            data1 <- hist(data1, breaks=10, PLOT=FALSE, main=col1)
-            data2 <- hist(data2, breaks=10, PLOT=FALSE, main=col2)
-            data1 <- data1$count
-            data2 <- data2$count
-
-            # Teste Cohen D
-            resultado = cohen.d(data1, data2)
-
-            # Concatena resultados no dataframe
-            nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$estimate)
-            output_df = rbind(output_df, nova_linha)
-        }
-    }
-}
-output_csv = "../Result_COHEND/COHEND_subsequente.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
-
-# ACUMULADO =====================================
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_cohend")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0))
-ano_start = min(df$ANO_CENSO)
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-            
-# Separa os anos em amostras
-ANO_COLUMN <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra acumulada dos anos
-            X <- df[col1]
-            data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO_COLUMN == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-
-            # Remove NaN, outliers e ordena
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-
-            # Ajusta dados em histogramas
-            data1 <- hist(data1, breaks=10, PLOT=FALSE, main=col1)
-            data2 <- hist(data2, breaks=10, PLOT=FALSE, main=col2)
-            data1 <- data1$count
-            data2 <- data2$count
-
-            # Teste Cohend
-            resultado = cohen.d(data1, data2)
-
-            # Concatena resultados no dataframe
-            nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$estimate)
-            output_df = rbind(output_df, nova_linha)
-        }
-    }
-}
-output_csv = "../Result_COHEND/COHEND_acumulado.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r
deleted file mode 100644
index ce064ae..0000000
--- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r
+++ /dev/null
@@ -1,128 +0,0 @@
-#!/usr/bin/env Rscript
-
-# Function to remove outliers using the IQR method
-remove_outliers <- function(data) {
-  # Calculate the interquartile range (IQR)
-  Q1 <- quantile(data, 0.25)
-  Q3 <- quantile(data, 0.75)
-  IQR <- Q3 - Q1
-  
-  # Define the lower and upper bounds
-  lower_bound <- Q1 - 1.5 * IQR
-  upper_bound <- Q3 + 1.5 * IQR
-  
-  # Remove outliers
-  cleaned_data <- data[data >= lower_bound & data <= upper_bound]
-  
-  # Return the cleaned data
-  return(cleaned_data)
-}
-
-# MAIN ==========================================
-
-# Carrega CSV
-options(warn = -1)
-df = read.csv("../../dados//escola_integers.csv", sep="|")
-#head(df)
-
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_f", "p_valor")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0))
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-
-# Separa os anos em amostras
-ANO <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra de um ano
-            X <- df[col1]
-            data1 <- X[ANO == ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-            
-            # Remove NaN
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-
-            # Teste F
-            resultado = var.test(data1, data2)
-
-            # Concatena resultados no dataframe
-            nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value)
-            output_df = rbind(output_df, nova_linha)
-        }
-    }
-}
-output_csv = "../Result_F/F_subsequente.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
-
-# ACUMULADO =====================================
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_f", "p_valor")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0))
-ano_start = min(df$ANO_CENSO)
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-
-# Separa os anos em amostras
-ANO_COLUMN <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra acumulada dos anos
-            X <- df[col1]
-            data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO_COLUMN == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-            
-            # Remove NaN
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-            
-            # Teste F
-            resultado = var.test(data1, data2)
-
-            # Concatena resultados no dataframe
-            nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value)
-            output_df = rbind(output_df, nova_linha)
-        }
-    }
-}
-output_csv = "../Result_F/F_acumulado.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r
deleted file mode 100644
index 032e5fb..0000000
--- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r
+++ /dev/null
@@ -1,167 +0,0 @@
-#!/usr/bin/env Rscript
-
-# Function to remove outliers using the IQR method
-remove_outliers <- function(data) {
-  # Calculate the interquartile range (IQR)
-  Q1 <- quantile(data, 0.25)
-  Q3 <- quantile(data, 0.75)
-  IQR <- Q3 - Q1
-  
-  # Define the lower and upper bounds
-  lower_bound <- Q1 - 1.5 * IQR
-  upper_bound <- Q3 + 1.5 * IQR
-  
-  # Remove outliers
-  cleaned_data <- data[data >= lower_bound & data <= upper_bound]
-  
-  # Return the cleaned data
-  return(cleaned_data)
-}
-
-# Function to calculate the step between subsamples
-get_step <- function(data, tam) {
-    return(length(data)/tam)
-}
-
-max_step <- function(data1, data2) {
-    if(length(data1) > length(data2)){
-        return(length(data1) / length(data2))
-    }
-    return(length(data2) / length(data1))
-}
-
-mono_get_sample <- function(data, tam){
-    step = get_step(data, tam)
-    indexes = seq(1, length(data), step)
-    return (data[indexes, drop=FALSE])
-}
-
-# MAIN ==========================================
-
-# Carrega CSV
-options(warn = -1)
-df = read.csv("../../dados/escola_integers.csv", sep="|")
-#head(df)
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra", "estatistica_ks", "p_valor")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0))
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-
-# Separa os anos em amostras
-ANO <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra de um ano
-            X <- df[col1]
-            data1 <- X[ANO == ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-            
-            # Remove NaN, outliers e ordena
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-
-            # Distribui as amostras para o tamanho da menor amostra
-            #tam = min(length(data1), length(data2))
-            #data1 = mono_get_sample(data1, tam)
-            #data2 = mono_get_sample(data2, tam)
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-            
-            # Ajusta dados em histogramas
-            data1 <- hist(data1, breaks=10, PLOT=FALSE)
-            data2 <- hist(data2, breaks=10, PLOT=FALSE)
-            data1 <- data1$count
-            data2 <- data2$count
-
-            # Teste KS
-            resultado = ks.test(data1, data2)
-
-            # Concatena resultados no dataframe
-            nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value)
-            output_df = rbind(output_df, nova_linha)
-        }
-    }
-}
-output_csv = "../Result_KS/KS_subsequente.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
-
-# ACUMULADO =====================================
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra", "estatistica_ks", "p_valor")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0))
-ano_start = min(df$ANO_CENSO)
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-
-# Separa os anos em amostras
-ANO_COLUMN <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra acumulada dos anos
-            X <- df[col1]
-            data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO_COLUMN == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-            
-            # Remove NaN, outliers e ordena
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-            
-            # Cria uma amostra bem distribuída
-            #tam = min(length(data1), length(data2))
-            #data1 = mono_get_sample(data1, tam)
-            #data2 = mono_get_sample(data2, tam)
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-
-            # Ajusta dados em histogramas
-            data1 <- hist(data1, breaks=10, PLOT=FALSE)
-            data2 <- hist(data2, breaks=10, PLOT=FALSE)
-            data1 <- data1$count
-            data2 <- data2$count
-
-            # Teste KS
-            resultado = ks.test(data1, data2)
-
-            # Concatena resultados no dataframe
-            nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value)
-            output_df = rbind(output_df, nova_linha)
-        }
-    }
-}
-output_csv = "../Result_KS/KS_acumulado.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r
deleted file mode 100644
index 714e3dd..0000000
--- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r
+++ /dev/null
@@ -1,152 +0,0 @@
-#!/usr/bin/env Rscript
-
-# Function to remove outliers using the IQR method
-remove_outliers <- function(data) {
-  # Calculate the interquartile range (IQR)
-  Q1 <- quantile(data, 0.25)
-  Q3 <- quantile(data, 0.75)
-  IQR <- Q3 - Q1
-  
-  # Define the lower and upper bounds
-  lower_bound <- Q1 - 1.5 * IQR
-  upper_bound <- Q3 + 1.5 * IQR
-  
-  # Remove outliers
-  cleaned_data <- data[data >= lower_bound & data <= upper_bound]
-  
-  # Return the cleaned data
-  return(cleaned_data)
-}
-
-
-# Carrega CSV
-options(warn = -1)
-df = read.csv("../../dados/escola_integers.csv", sep="|")
-#head(df)
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_t", "p_valor")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0));
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-            
-# Separa os anos em amostras
-ANO <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra de um ano
-            X <- df[col1]
-            data1 <- X[ANO == ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-
-            # Remove NaN, outliers e ordena
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-
-            # Pula casos em que a variancia zera
-            if ( (var(data1)==0) && (var(data2)==0) ){
-                # Concatena resultados no dataframe
-                nova_linha = c(col1, ano, col2, ano+1, length(data1), NaN, NaN)
-                output_df = rbind(output_df, nova_linha)
-            } else {
-                # Ajusta dados em histogramas
-                data1 <- hist(data1, breaks=10, PLOT=FALSE)
-                data2 <- hist(data2, breaks=10, PLOT=FALSE)
-                data1 <- data1$count
-                data2 <- data2$count
-
-                # Teste T
-                resultado = t.test(data1, data2)
-
-                # Concatena resultados no dataframe
-                nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value)
-                output_df = rbind(output_df, nova_linha)
-            }
-        }
-    }
-}
-output_csv = "../Result_T/T_subsequente.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
-
-# ACUMULADO =====================================
-
-# Colunas do csv de saida
-colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_t", "p_valor")
-output_df = data.frame(matrix(ncol = length(colunas), nrow = 0))
-ano_start = min(df$ANO_CENSO)
-
-# Remove ANO_CENSO das iteracoes
-atributos = names(df)
-atributos = atributos[atributos != "ANO_CENSO"]
-            
-# Separa os anos em amostras
-ANO_COLUMN <- df["ANO_CENSO"]
-
-for(ano in sort(unique(df$ANO_CENSO))){
-    for(col1 in atributos) {
-        for(col2 in atributos) {
-
-            # Amostra acumulada dos anos
-            X <- df[col1]
-            data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano]
-
-            # Amostra do ano seguinte
-            Y <- df[col2]
-            data2 <- Y[ANO_COLUMN == ano+1]
-
-            # Remove zeros
-            data1 <- data1[data1 != 0]
-            data2 <- data2[data2 != 0]
-
-            # Remove NaN, outliers e ordena
-            data1 <- remove_outliers(na.omit(data1))
-            data2 <- remove_outliers(na.omit(data2))
-
-            # Pula casos em que não há dados nas amostras
-            if(length(data1) == 0 || length(data2) == 0){
-                next
-            }
-
-            # Pula casos em que a variancia zera
-            if ( (var(data1)==0) && (var(data2)==0) ){
-                # Concatena resultados no dataframe
-                nova_linha = c(col1, ano, col2, ano+1, length(data1), NaN, NaN)
-                output_df = rbind(output_df, nova_linha)
-            } else {
-                # Ajusta dados em histogramas
-                data1 <- hist(data1, breaks=10, PLOT=FALSE)
-                data2 <- hist(data2, breaks=10, PLOT=FALSE)
-                data1 <- data1$count
-                data2 <- data2$count
-
-                # Teste T
-                resultado = t.test(data1, data2)
-
-                # Concatena resultados no dataframe
-                nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value)
-                output_df = rbind(output_df, nova_linha)
-            }
-        }
-    }
-}
-output_csv = "../Result_T/T_acumulado.csv"
-colnames(output_df) <- colunas
-write.csv(output_df, file = output_csv, row.names = FALSE)
diff --git a/Testes_norm/raw_tests/run.sh b/Testes_norm/run.sh
similarity index 100%
rename from Testes_norm/raw_tests/run.sh
rename to Testes_norm/run.sh
diff --git a/Testes_norm/raw_tests/teste_cohend.r b/Testes_norm/teste_cohend.r
similarity index 96%
rename from Testes_norm/raw_tests/teste_cohend.r
rename to Testes_norm/teste_cohend.r
index 803bee9..5ed2661 100644
--- a/Testes_norm/raw_tests/teste_cohend.r
+++ b/Testes_norm/teste_cohend.r
@@ -22,7 +22,7 @@ remove_outliers <- function(data) {
 # Carrega CSV
 options(warn = -1)
 library(effsize)
-df = read.csv("../../dados/escola_integers.csv", sep="|")
+df = read.csv("../dados/escola_integers.csv", sep="|")
 #head(df)
 
 # Colunas do csv de saida
@@ -82,7 +82,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/COHEND_subsequente.csv"
+output_csv = "../R_resultados/Histograma_norm/COHEND_subsequente.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
@@ -146,7 +146,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/COHEND_acumulado.csv"
+output_csv = "../R_resultados/Histograma_norm/COHEND_acumulado.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
diff --git a/Testes_norm/raw_tests/teste_f.r b/Testes_norm/teste_f.r
similarity index 96%
rename from Testes_norm/raw_tests/teste_f.r
rename to Testes_norm/teste_f.r
index be69075..8951555 100644
--- a/Testes_norm/raw_tests/teste_f.r
+++ b/Testes_norm/teste_f.r
@@ -22,7 +22,7 @@ remove_outliers <- function(data) {
 
 # Carrega CSV
 options(warn = -1)
-df = read.csv("../../dados//escola_integers.csv", sep="|")
+df = read.csv("../dados//escola_integers.csv", sep="|")
 #head(df)
 
 
@@ -83,7 +83,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/F_subsequente.csv"
+output_csv = "../R_resultados/Histograma_norm/F_subsequente.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
@@ -147,7 +147,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/F_acumulado.csv"
+output_csv = "../R_resultados/Histograma_norm/F_acumulado.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
diff --git a/Testes_norm/raw_tests/teste_ks.r b/Testes_norm/teste_ks.r
similarity index 96%
rename from Testes_norm/raw_tests/teste_ks.r
rename to Testes_norm/teste_ks.r
index 514784d..b25cba5 100644
--- a/Testes_norm/raw_tests/teste_ks.r
+++ b/Testes_norm/teste_ks.r
@@ -40,7 +40,7 @@ mono_get_sample <- function(data, tam){
 
 # Carrega CSV
 options(warn = -1)
-df = read.csv("../../dados/escola_integers.csv", sep="|")
+df = read.csv("../dados/escola_integers.csv", sep="|")
 #head(df)
 
 # Colunas do csv de saida
@@ -100,7 +100,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/KS_subsequente.csv"
+output_csv = "../R_resultados/Histograma_norm/KS_subsequente.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
@@ -164,7 +164,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/KS_acumulado.csv"
+output_csv = "../R_resultados/Histograma_norm/KS_acumulado.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
diff --git a/Testes_norm/raw_tests/teste_t.r b/Testes_norm/teste_t.r
similarity index 96%
rename from Testes_norm/raw_tests/teste_t.r
rename to Testes_norm/teste_t.r
index c336f0b..43a95f9 100644
--- a/Testes_norm/raw_tests/teste_t.r
+++ b/Testes_norm/teste_t.r
@@ -21,7 +21,7 @@ remove_outliers <- function(data) {
 
 # Carrega CSV
 options(warn = -1)
-df = read.csv("../../dados/escola_integers.csv", sep="|")
+df = read.csv("../dados/escola_integers.csv", sep="|")
 #head(df)
 
 # Colunas do csv de saida
@@ -81,7 +81,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/T_subsequente.csv"
+output_csv = "../R_resultados/Histograma_norm/T_subsequente.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
@@ -145,7 +145,7 @@ for(ano in sort(unique(df$ANO_CENSO))){
         }
     }
 }
-output_csv = "../../R_resultados/Histograma_norm/T_acumulado.csv"
+output_csv = "../R_resultados/Histograma_norm/T_acumulado.csv"
 colnames(output_df) <- colunas
 write.csv(output_df, file = output_csv, row.names = FALSE)
 
-- 
GitLab