diff --git a/twitter-api-example.py b/twitter-api-example.py
index cee9fddbcac40376df47fa3269848726ac07ac18..3e955c6828d8a6a8381ffaf538044257e61e361e 100755
--- a/twitter-api-example.py
+++ b/twitter-api-example.py
@@ -1,4 +1,5 @@
 #!/usr/bin/env python3
+#-*- coding: utf-8 -*-
 
 import sys
 import jsonpickle
@@ -13,7 +14,8 @@ def search(api, sincedate, untildate, csvFile, jsonFile):
     # a parte de baixo que é a realmente importante...
     searchQuery = '((cota OR cotas OR universidade OR universidades) AND (racial OR raciais)) OR ((universidade OR universidades) AND (cota OR cotas)) '
     
-    maxTweets = 1000000
+    
+    maxTweets = 10000000
     
     tweetsPerQry = 100  # this is the max the API permits
     
@@ -85,13 +87,14 @@ if __name__ == "__main__":
     
     # sugiro tirar o sincedate; assim fica menos feito o código. Eu também lembro de dar uns paus; e de qq forma
     # a API só volta cerca de uma semana no passado mesmo
-    if( len(sys.argv) != 4):
-        print("Usage "+sys.argv[0]+" <sincedate> <untildate> <csvFile> <jsonFile>")
+    if( len(sys.argv) != 5):
+        print("Usage "+sys.argv[0]+" <sincedate yyyy-mm-dd> <untildate yyyy-mm-dd> <csvFile> <jsonFile>")
         sys.exit(1)
     # sincedate =  "2019-05-15"
     sincedate = sys.argv[1]
     # untildate = "2019-05-16"
     untildate = sys.argv[2]
+    # Testar colocar esse limite. Só para eles não destruirem a cahve
 
     # melhor parametrizar esse arquivos de saida
     # csvFile = open('cotas.csv', 'a')