diff --git a/twitter-api-example.py b/twitter-api-example.py index cee9fddbcac40376df47fa3269848726ac07ac18..3e955c6828d8a6a8381ffaf538044257e61e361e 100755 --- a/twitter-api-example.py +++ b/twitter-api-example.py @@ -1,4 +1,5 @@ #!/usr/bin/env python3 +#-*- coding: utf-8 -*- import sys import jsonpickle @@ -13,7 +14,8 @@ def search(api, sincedate, untildate, csvFile, jsonFile): # a parte de baixo que é a realmente importante... searchQuery = '((cota OR cotas OR universidade OR universidades) AND (racial OR raciais)) OR ((universidade OR universidades) AND (cota OR cotas)) ' - maxTweets = 1000000 + + maxTweets = 10000000 tweetsPerQry = 100 # this is the max the API permits @@ -85,13 +87,14 @@ if __name__ == "__main__": # sugiro tirar o sincedate; assim fica menos feito o código. Eu também lembro de dar uns paus; e de qq forma # a API só volta cerca de uma semana no passado mesmo - if( len(sys.argv) != 4): - print("Usage "+sys.argv[0]+" <sincedate> <untildate> <csvFile> <jsonFile>") + if( len(sys.argv) != 5): + print("Usage "+sys.argv[0]+" <sincedate yyyy-mm-dd> <untildate yyyy-mm-dd> <csvFile> <jsonFile>") sys.exit(1) # sincedate = "2019-05-15" sincedate = sys.argv[1] # untildate = "2019-05-16" untildate = sys.argv[2] + # Testar colocar esse limite. Só para eles não destruirem a cahve # melhor parametrizar esse arquivos de saida # csvFile = open('cotas.csv', 'a')