diff --git a/Testes_norm/TESTE_COHEND.ipynb b/Notebooks_R/TESTE_COHEND.ipynb similarity index 100% rename from Testes_norm/TESTE_COHEND.ipynb rename to Notebooks_R/TESTE_COHEND.ipynb diff --git a/Testes_norm/TESTE_F.ipynb b/Notebooks_R/TESTE_F.ipynb similarity index 100% rename from Testes_norm/TESTE_F.ipynb rename to Notebooks_R/TESTE_F.ipynb diff --git a/Testes_norm/TESTE_KS.ipynb b/Notebooks_R/TESTE_KS.ipynb similarity index 100% rename from Testes_norm/TESTE_KS.ipynb rename to Notebooks_R/TESTE_KS.ipynb diff --git a/Testes_norm/TESTE_T.ipynb b/Notebooks_R/TESTE_T.ipynb similarity index 100% rename from Testes_norm/TESTE_T.ipynb rename to Notebooks_R/TESTE_T.ipynb diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh b/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh deleted file mode 100644 index 4c43edad38d7afc62dfd117cbfd35e213dbfb5e4..0000000000000000000000000000000000000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/run-checkpoint.sh +++ /dev/null @@ -1,6 +0,0 @@ -#!/bin/bash - -Rscript ./teste_ks.r -Rscript ./teste_f.r -Rscript ./teste_t.r -Rscript ./teste_cohend.r diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r deleted file mode 100644 index a9c810e43eac0a77ead6436ff05ee216b34d31fa..0000000000000000000000000000000000000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_cohend-checkpoint.r +++ /dev/null @@ -1,139 +0,0 @@ -#!/usr/bin/env Rscrit - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - - -# Carrega CSV -options(warn = -1) -library(effsize) -df = read.csv("../../dados/escola_integers.csv", sep="|") -#head(df) - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_cohend") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)); - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE, main=col1) - data2 <- hist(data2, breaks=10, PLOT=FALSE, main=col2) - data1 <- data1$count - data2 <- data2$count - - # Teste Cohen D - resultado = cohen.d(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$estimate) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_COHEND/COHEND_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_cohend") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE, main=col1) - data2 <- hist(data2, breaks=10, PLOT=FALSE, main=col2) - data1 <- data1$count - data2 <- data2$count - - # Teste Cohend - resultado = cohen.d(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$estimate) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_COHEND/COHEND_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r deleted file mode 100644 index ce064ae87a0f629e8d6731620dbfdd52f1282c3a..0000000000000000000000000000000000000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_f-checkpoint.r +++ /dev/null @@ -1,128 +0,0 @@ -#!/usr/bin/env Rscript - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - -# MAIN ========================================== - -# Carrega CSV -options(warn = -1) -df = read.csv("../../dados//escola_integers.csv", sep="|") -#head(df) - - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_f", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Teste F - resultado = var.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_F/F_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_f", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Teste F - resultado = var.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_F/F_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r deleted file mode 100644 index 032e5fba5d1ec7bffc9ae915775489726ed25879..0000000000000000000000000000000000000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_ks-checkpoint.r +++ /dev/null @@ -1,167 +0,0 @@ -#!/usr/bin/env Rscript - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - -# Function to calculate the step between subsamples -get_step <- function(data, tam) { - return(length(data)/tam) -} - -max_step <- function(data1, data2) { - if(length(data1) > length(data2)){ - return(length(data1) / length(data2)) - } - return(length(data2) / length(data1)) -} - -mono_get_sample <- function(data, tam){ - step = get_step(data, tam) - indexes = seq(1, length(data), step) - return (data[indexes, drop=FALSE]) -} - -# MAIN ========================================== - -# Carrega CSV -options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") -#head(df) - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra", "estatistica_ks", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Distribui as amostras para o tamanho da menor amostra - #tam = min(length(data1), length(data2)) - #data1 = mono_get_sample(data1, tam) - #data2 = mono_get_sample(data2, tam) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste KS - resultado = ks.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_KS/KS_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra", "estatistica_ks", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Cria uma amostra bem distribuída - #tam = min(length(data1), length(data2)) - #data1 = mono_get_sample(data1, tam) - #data2 = mono_get_sample(data2, tam) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste KS - resultado = ks.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } -} -output_csv = "../Result_KS/KS_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r b/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r deleted file mode 100644 index 714e3dd30e6d2d2322b2870f5afa50c2765b69ab..0000000000000000000000000000000000000000 --- a/Testes_norm/raw_tests/.ipynb_checkpoints/teste_t-checkpoint.r +++ /dev/null @@ -1,152 +0,0 @@ -#!/usr/bin/env Rscript - -# Function to remove outliers using the IQR method -remove_outliers <- function(data) { - # Calculate the interquartile range (IQR) - Q1 <- quantile(data, 0.25) - Q3 <- quantile(data, 0.75) - IQR <- Q3 - Q1 - - # Define the lower and upper bounds - lower_bound <- Q1 - 1.5 * IQR - upper_bound <- Q3 + 1.5 * IQR - - # Remove outliers - cleaned_data <- data[data >= lower_bound & data <= upper_bound] - - # Return the cleaned data - return(cleaned_data) -} - - -# Carrega CSV -options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") -#head(df) - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_t", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)); - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra de um ano - X <- df[col1] - data1 <- X[ANO == ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Pula casos em que a variancia zera - if ( (var(data1)==0) && (var(data2)==0) ){ - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), NaN, NaN) - output_df = rbind(output_df, nova_linha) - } else { - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste T - resultado = t.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } - } -} -output_csv = "../Result_T/T_subsequente.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) - -# ACUMULADO ===================================== - -# Colunas do csv de saida -colunas = c("coluna1", "ano_coluna1", "coluna2", "ano_coluna2", "tamanho_amostra1", "estatistica_t", "p_valor") -output_df = data.frame(matrix(ncol = length(colunas), nrow = 0)) -ano_start = min(df$ANO_CENSO) - -# Remove ANO_CENSO das iteracoes -atributos = names(df) -atributos = atributos[atributos != "ANO_CENSO"] - -# Separa os anos em amostras -ANO_COLUMN <- df["ANO_CENSO"] - -for(ano in sort(unique(df$ANO_CENSO))){ - for(col1 in atributos) { - for(col2 in atributos) { - - # Amostra acumulada dos anos - X <- df[col1] - data1 <- X[ANO_COLUMN >= ano_start & ANO_COLUMN <= ano] - - # Amostra do ano seguinte - Y <- df[col2] - data2 <- Y[ANO_COLUMN == ano+1] - - # Remove zeros - data1 <- data1[data1 != 0] - data2 <- data2[data2 != 0] - - # Remove NaN, outliers e ordena - data1 <- remove_outliers(na.omit(data1)) - data2 <- remove_outliers(na.omit(data2)) - - # Pula casos em que não há dados nas amostras - if(length(data1) == 0 || length(data2) == 0){ - next - } - - # Pula casos em que a variancia zera - if ( (var(data1)==0) && (var(data2)==0) ){ - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), NaN, NaN) - output_df = rbind(output_df, nova_linha) - } else { - # Ajusta dados em histogramas - data1 <- hist(data1, breaks=10, PLOT=FALSE) - data2 <- hist(data2, breaks=10, PLOT=FALSE) - data1 <- data1$count - data2 <- data2$count - - # Teste T - resultado = t.test(data1, data2) - - # Concatena resultados no dataframe - nova_linha = c(col1, ano, col2, ano+1, length(data1), resultado$statistic, resultado$p.value) - output_df = rbind(output_df, nova_linha) - } - } - } -} -output_csv = "../Result_T/T_acumulado.csv" -colnames(output_df) <- colunas -write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/run.sh b/Testes_norm/run.sh similarity index 100% rename from Testes_norm/raw_tests/run.sh rename to Testes_norm/run.sh diff --git a/Testes_norm/raw_tests/teste_cohend.r b/Testes_norm/teste_cohend.r similarity index 96% rename from Testes_norm/raw_tests/teste_cohend.r rename to Testes_norm/teste_cohend.r index 803bee9f028e6687f6ad9e2df6f98ea2b8b6ba7c..5ed266191adbbd4386e4f88040b002e51f8523f6 100644 --- a/Testes_norm/raw_tests/teste_cohend.r +++ b/Testes_norm/teste_cohend.r @@ -22,7 +22,7 @@ remove_outliers <- function(data) { # Carrega CSV options(warn = -1) library(effsize) -df = read.csv("../../dados/escola_integers.csv", sep="|") +df = read.csv("../dados/escola_integers.csv", sep="|") #head(df) # Colunas do csv de saida @@ -82,7 +82,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/COHEND_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/COHEND_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -146,7 +146,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/COHEND_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/COHEND_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/teste_f.r b/Testes_norm/teste_f.r similarity index 96% rename from Testes_norm/raw_tests/teste_f.r rename to Testes_norm/teste_f.r index be69075288816513d4a562e7390d738ec41d9b1f..89515550fed10a55f58d4b2ea3a6c24d3b1bf8d4 100644 --- a/Testes_norm/raw_tests/teste_f.r +++ b/Testes_norm/teste_f.r @@ -22,7 +22,7 @@ remove_outliers <- function(data) { # Carrega CSV options(warn = -1) -df = read.csv("../../dados//escola_integers.csv", sep="|") +df = read.csv("../dados//escola_integers.csv", sep="|") #head(df) @@ -83,7 +83,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/F_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/F_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -147,7 +147,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/F_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/F_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/teste_ks.r b/Testes_norm/teste_ks.r similarity index 96% rename from Testes_norm/raw_tests/teste_ks.r rename to Testes_norm/teste_ks.r index 514784da7bd19d2538bd859bb026c1c129c1df75..b25cba59dc9d0f00ad662a1f4cfda7bf03a03289 100644 --- a/Testes_norm/raw_tests/teste_ks.r +++ b/Testes_norm/teste_ks.r @@ -40,7 +40,7 @@ mono_get_sample <- function(data, tam){ # Carrega CSV options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") +df = read.csv("../dados/escola_integers.csv", sep="|") #head(df) # Colunas do csv de saida @@ -100,7 +100,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/KS_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/KS_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -164,7 +164,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/KS_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/KS_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) diff --git a/Testes_norm/raw_tests/teste_t.r b/Testes_norm/teste_t.r similarity index 96% rename from Testes_norm/raw_tests/teste_t.r rename to Testes_norm/teste_t.r index c336f0bf32f02218fdf99361379daae9ac6a7020..43a95f9ecc0ac265baa6976eb832be3e46685458 100644 --- a/Testes_norm/raw_tests/teste_t.r +++ b/Testes_norm/teste_t.r @@ -21,7 +21,7 @@ remove_outliers <- function(data) { # Carrega CSV options(warn = -1) -df = read.csv("../../dados/escola_integers.csv", sep="|") +df = read.csv("../dados/escola_integers.csv", sep="|") #head(df) # Colunas do csv de saida @@ -81,7 +81,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/T_subsequente.csv" +output_csv = "../R_resultados/Histograma_norm/T_subsequente.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE) @@ -145,7 +145,7 @@ for(ano in sort(unique(df$ANO_CENSO))){ } } } -output_csv = "../../R_resultados/Histograma_norm/T_acumulado.csv" +output_csv = "../R_resultados/Histograma_norm/T_acumulado.csv" colnames(output_df) <- colunas write.csv(output_df, file = output_csv, row.names = FALSE)