From b6c4e55acddde57dd49ff7c750cb98574caef6b2 Mon Sep 17 00:00:00 2001 From: Muriki <mgy20@inf.ufpr.br> Date: Sun, 26 May 2024 22:27:36 -0300 Subject: [PATCH] Ajustado repo --- .../TESTE_COHEND.ipynb | 0 {Testes_norm => Notebooks_R}/TESTE_F.ipynb | Bin {Testes_norm => Notebooks_R}/TESTE_KS.ipynb | 0 {Testes_norm => Notebooks_R}/TESTE_T.ipynb | 0 .../.ipynb_checkpoints/run-checkpoint.sh | 6 - .../teste_cohend-checkpoint.r | 139 --------------- .../.ipynb_checkpoints/teste_f-checkpoint.r | 128 -------------- .../.ipynb_checkpoints/teste_ks-checkpoint.r | 167 ------------------ .../.ipynb_checkpoints/teste_t-checkpoint.r | 152 ---------------- Testes_norm/{raw_tests => }/run.sh | 0 Testes_norm/{raw_tests => }/teste_cohend.r | 6 +- Testes_norm/{raw_tests => }/teste_f.r | 6 +- Testes_norm/{raw_tests => }/teste_ks.r | 6 +- Testes_norm/{raw_tests => }/teste_t.r | 6 +- 14 files changed, 12 insertions(+), 604 deletions(-) rename {Testes_norm => Notebooks_R}/TESTE_COHEND.ipynb (100%) rename {Testes_norm => Notebooks_R}/TESTE_F.ipynb (100%) rename {Testes_norm => Notebooks_R}/TESTE_KS.ipynb (100%) rename {Testes_norm => Notebooks_R}/TESTE_T.ipynb (100%) delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r delete mode 100644 Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r rename Testes_norm/{raw_tests => }/run.sh (100%) rename Testes_norm/{raw_tests => }/teste_cohend.r (96%) rename Testes_norm/{raw_tests => }/teste_f.r (96%) rename Testes_norm/{raw_tests => }/teste_ks.r (96%) rename Testes_norm/{raw_tests => }/teste_t.r (96%) diff --git a/Testes_norm/TESTE_COHEND.ipynb b/Notebooks_R/TESTE_COHEND.ipynb similarity index 100% rename from Testes_norm/TESTE_COHEND.ipynb rename to Notebooks_R/TESTE_COHEND.ipynb diff --git a/Testes_norm/TESTE_F.ipynb b/Notebooks_R/TESTE_F.ipynb similarity index 100% rename from Testes_norm/TESTE_F.ipynb rename to Notebooks_R/TESTE_F.ipynb diff --git a/Testes_norm/TESTE_KS.ipynb b/Notebooks_R/TESTE_KS.ipynb similarity index 100% rename from Testes_norm/TESTE_KS.ipynb rename to Notebooks_R/TESTE_KS.ipynb diff --git a/Testes_norm/TESTE_T.ipynb b/Notebooks_R/TESTE_T.ipynb similarity index 100% rename from Testes_norm/TESTE_T.ipynb rename to Notebooks_R/TESTE_T.ipynb diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh b/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh deleted file mode 100644 index 4c43eda..0000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh +++ /dev/null @@ -1,6 +0,0 @@ -#!/bin/bash - -Rscript ./teste_ks.r -Rscript ./teste_f.r -Rscript ./teste_t.r -Rscript ./teste_cohend.r diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r deleted file mode 100644 index a9c810e..0000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r +++ /dev/null @@ -1,139 +0,0 @@ -#!/usr/bin/env Rscrit - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - - -# Carrega CSV -options(warn = -1) -library(effsize) -df = read.csv("../../dados/escola_integers.csv", sep="|") -#head(df) - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_cohend") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)); - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE, main=col1) - data2 <- hist(data2, breaks=10, PLOT=FALSE, main=col2) - data1 <- data1$count - data2 <- data2$count - - # Teste Cohen D - resultado = cohen.d(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$estimate) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_COHEND/COHEND_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_cohend") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE, main=col1) - data2 <- hist(data2, breaks=10, PLOT=FALSE, main=col2) - data1 <- data1$count - data2 <- data2$count - - # Teste Cohend - resultado = cohen.d(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$estimate) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_COHEND/COHEND_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r deleted file mode 100644 index ce064ae..0000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r +++ /dev/null @@ -1,128 +0,0 @@ -#!/usr/bin/env Rscript - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - -# MAIN ========================================== - -# Carrega CSV -options(warn = -1) -df = read.csv("../../dados//escola_integers.csv", sep="|") -#head(df) - - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_f", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Teste F - resultado = var.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_F/F_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_f", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Teste F - resultado = var.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_F/F_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r deleted file mode 100644 index 032e5fb..0000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r +++ /dev/null @@ -1,167 +0,0 @@ -#!/usr/bin/env Rscript - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - -# Function to calculate the step between subsamples -get_step <- function(data, tam) { - return(length(data)/tam) -} - -max_step <- function(data1, data2) { - if(length(data1) > length(data2)){ - return(length(data1) / length(data2)) - } - return(length(data2) / length(data1)) -} - -mono_get_sample <- function(data, tam){ - step = get_step(data, tam) - indexes = seq(1, length(data), step) - return (data[indexes, drop=FALSE]) -} - -# MAIN ========================================== - -# Carrega CSV -options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") -#head(df) - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra", "estatistica_ks", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Distribui as amostras para o tamanho da menor amostra - #tam = min(length(data1), length(data2)) - #data1 = mono_get_sample(data1, tam) - #data2 = mono_get_sample(data2, tam) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste KS - resultado = ks.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_KS/KS_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra", "estatistica_ks", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Cria uma amostra bem distribuída - #tam = min(length(data1), length(data2)) - #data1 = mono_get_sample(data1, tam) - #data2 = mono_get_sample(data2, tam) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste KS - resultado = ks.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_KS/KS_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r deleted file mode 100644 index 714e3dd..0000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r +++ /dev/null @@ -1,152 +0,0 @@ -#!/usr/bin/env Rscript - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - - -# Carrega CSV -options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") -#head(df) - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_t", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)); - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Pula casos em que a variancia zera - if ( (var(data1)==0) && (var(data2)==0) ){ - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), NaN, NaN) - output_df = rbind(output_df, nova_linha) - } else { - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste T - resultado = t.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } - } -} -output_csv = "../Result_T/T_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_t", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Pula casos em que a variancia zera - if ( (var(data1)==0) && (var(data2)==0) ){ - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), NaN, NaN) - output_df = rbind(output_df, nova_linha) - } else { - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste T - resultado = t.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } - } -} -output_csv = "../Result_T/T_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/run.sh b/Testes_norm/run.sh similarity index 100% rename from Testes_norm/raw_tests/run.sh rename to Testes_norm/run.sh diff --git a/Testes_norm/raw_tests/teste_cohend.r b/Testes_norm/teste_cohend.r similarity index 96% rename from Testes_norm/raw_tests/teste_cohend.r rename to Testes_norm/teste_cohend.r index 803bee9..5ed2661 100644 --- a/Testes_norm/raw_tests/teste_cohend.r +++ b/Testes_norm/teste_cohend.r @@ -22,7 +22,7 @@ remove_outliers <- function(data) { # Carrega CSV options(warn = -1) library(effsize) -df = read.csv("../../dados/escola_integers.csv", sep="|") +df = read.csv("../dados/escola_integers.csv", sep="|") #head(df) # Colunas do csv de saida @@ -82,7 +82,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/COHEND_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/COHEND_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -146,7 +146,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/COHEND_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/COHEND_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/teste_f.r b/Testes_norm/teste_f.r similarity index 96% rename from Testes_norm/raw_tests/teste_f.r rename to Testes_norm/teste_f.r index be69075..8951555 100644 --- a/Testes_norm/raw_tests/teste_f.r +++ b/Testes_norm/teste_f.r @@ -22,7 +22,7 @@ remove_outliers <- function(data) { # Carrega CSV options(warn = -1) -df = read.csv("../../dados//escola_integers.csv", sep="|") +df = read.csv("../dados//escola_integers.csv", sep="|") #head(df) @@ -83,7 +83,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/F_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/F_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -147,7 +147,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/F_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/F_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/teste_ks.r b/Testes_norm/teste_ks.r similarity index 96% rename from Testes_norm/raw_tests/teste_ks.r rename to Testes_norm/teste_ks.r index 514784d..b25cba5 100644 --- a/Testes_norm/raw_tests/teste_ks.r +++ b/Testes_norm/teste_ks.r @@ -40,7 +40,7 @@ mono_get_sample <- function(data, tam){ # Carrega CSV options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") +df = read.csv("../dados/escola_integers.csv", sep="|") #head(df) # Colunas do csv de saida @@ -100,7 +100,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/KS_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/KS_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -164,7 +164,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/KS_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/KS_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/teste_t.r b/Testes_norm/teste_t.r similarity index 96% rename from Testes_norm/raw_tests/teste_t.r rename to Testes_norm/teste_t.r index c336f0b..43a95f9 100644 --- a/Testes_norm/raw_tests/teste_t.r +++ b/Testes_norm/teste_t.r @@ -21,7 +21,7 @@ remove_outliers <- function(data) { # Carrega CSV options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") +df = read.csv("../dados/escola_integers.csv", sep="|") #head(df) # Colunas do csv de saida @@ -81,7 +81,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/T_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/T_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -145,7 +145,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/T_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/T_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) -- GitLab