EUA afiam capacidade de filtrar dados
junio 28, 2013 14:29 - no comments yetAo buscar novas formas de combater e caçar terroristas, a comunidade de inteligência dos Estados Unidos inaugurou parcerias com o Vale do Silício para expor os segredos do big data – todo o volume de registros telefônicos, e-mails e outros dados que se acumulou à medida que as comunicações digitais explodiram na última década. A revolução resultante na tecnologia dos softwares deu, pela primeira vez, aos espiões americanos a capacidade de monitorar as atividades e movimentos das pessoas em praticamente qualquer lugar do mundo, sem necessariamente observá-las ou escutar suas conversas.
Veio à tona neste mês que a NSA (Agência de Segurança Nacional dos EUA) obteve secretamente os registros telefônicos de milhões de americanos e o acesso a e-mails, vídeos e outros dados de estrangeiros em poder de nove empresas americanas da internet. Isso oferece um raro vislumbre do crescente alcance da maior agência de espionagem dos EUA. O fato também alarmou o governo: em 8 de junho, Shawn Turner, porta-voz do diretor de Inteligência Nacional, disse que “a NSA registrou um boletim de ocorrência” sobre os vazamentos.
Um documento da NSA, supostamente vazado ao jornal britânico The Guardian por um ex-prestador de serviços da agência chamado Edward Snowden, mostrou um “mapa global de calor” que parecia representar o volume de dados colhido pela NSA. Ele mostrava que, em março de 2013, havia 97 bilhões de informações recolhidas de redes no mundo todo. Cerca de 14% estavam no Irã, muita coisa era do Paquistão e cerca de 3% vinham de dentro dos EUA.
Privacidade e liberdades civis
Com pouco debate público, o governo dos EUA tem despejado bilhões de dólares na agência ao longo da última década, construindo uma fortaleza de 93 mil m2 em Utah aparentemente para armazenar indefinidamente enormes volumes de dados pessoais. A NSA criou estações de interceptação em todo o país, segundo ex-funcionários da iniciativa privada e do setor de inteligência, e ajudou a montar um dos mais velozes computadores do mundo para decifrar os códigos que protegem as informações.
“Há cinco anos, eles ainda não tinham a capacidade de monitorar um volume significativo de tráfego na internet”, disse Herbert Lin, especialista em ciência da computação e telecomunicações no Conselho Nacional de Pesquisas. Agora, disse ele, parece que “eles estão se aproximando desse objetivo”.
A capacidade da agência para garimpar dados sobre quem está ligando ou mandando e-mails torna menos importantes as escutas telefônicas, segundo especialistas. Mas esse acesso aos dados desperta questões perturbadoras sobre a privacidade e as liberdades civis. A União Americana das Liberdades Civis abriu em 11 de junho uma ação judicial contra o governo Obama, pedindo a um juiz de Nova York que interrompa a coleta de dados domésticos e expurgue os arquivos.
90% dos dados foram criados nos últimos dois anos
“As leis e políticas americanas veem o conteúdo das comunicações como o que deve ser preservado, mas isso hoje é retrógrado”, disse Marc Rotenberg, diretor-executivo do Centro de Informação da Privacidade Eletrônica, de Washington. “A informação associada às comunicações hoje é, com frequência, mais significativa do que as comunicações em si. As pessoas garimpam de dados sabem disso.”
A legislação americana restringe os grampos telefônicos e a bisbilhotagem do conteúdo das comunicações de cidadãos americanos, mas oferece pouquíssima proteção para os dados digitais emitidos pelo telefone quando uma ligação é feita.
Graças aos smartphones, aos tablets, às redes sociais, aos e-mails e a outras comunicações digitais, o mundo cria 2,5 quintilhões de bytes de novos dados diariamente, segundo a IBM. A empresa estima que 90% dos dados que hoje existem no mundo foram criados apenas nos últimos dois anos. De agora até 2020, o universo digital deverá duplicar a cada dois anos, segundo a empresa International Data Corporation.
Preocupações constitucionais
Ao mesmo tempo, houve um rápido avanço na capacidade de filtrar a informação.
Meros quatro dados acerca da localização e do momento de uma ligação por celular bastam, segundo estudo publicado na Nature, para identificar o autor da chamada em 95% das vezes. “Podemos encontrar todos os tipos de correlações e padrões”, disse um cientista de computação do governo que falou sob a condição de anonimato. “Tremendos avanços vêm ocorrendo.”
Quando o presidente George W. Bush iniciou secretamente o programa da NSA que realizava escutas telefônicas, em outubro de 2001, para observar telefonemas internacionais e e-mails de cidadãos americanos sem autorização judicial, o programa veio acompanhado por operações de garimpagem de dados em grande escala. Essas atividades secretas levaram, em março de 2004, a um confronto entre funcionários da Casa Branca de Bush e um grupo de altos funcionários do Departamento de Justiça e do FBI.
Advogados do Departamento de Justiça que estavam dispostos a manter os grampos sem mandado judicial argumentavam que a garimpagem de dados motivava preocupações constitucionais ainda maiores. Em 2003, após a revelação de que o Pentágono tinha um plano para criar uma operação de garimpagem de dados, protestos forçaram o governo Bush a recuar.
O poder da inteligência artificial
Mas, desde então, as operações de garimpagem de dados por parte da comunidade de inteligência têm crescido enormemente, segundo especialistas.
“Cada vez mais, serviços como Google e Facebook se tornaram imensos repositórios centrais de informação”, disse Dan Auerbach, analista da Fundação Fronteira Eletrônica. “Isso criou uma pilha de dados que é um alvo incrivelmente atraente para agências legais e de inteligência.”
As agências de espionagem, há muito tempo, estão entre os clientes que mais exigem avanços na informática e na coleta de dados – ainda mais nos últimos anos.
Em 2006, o governo Bush estabeleceu um programa para acelerar o desenvolvimento de tecnologias relativas à inteligência. Watson, da IBM, tecnologia de supercomputação que derrotou campeões humanos do “Jeopardy!” [programa de perguntas a respostas] na televisão em 2011, é um ótimo exemplo do poder da inteligência artificial com uso intensivo de dados. A informática no estilo Watson poderia observar padrões de comportamento suspeito na internet.
Limites constitucionais a buscas e apreensões
A NSA e a CIA (Agência Central de Inteligência) estão testando o Watson nos últimos dois anos, segundo um consultor que assessorou o governo e pediu para não ser identificado por não estar autorizado a falar.
Especialistas do setor dizem que as agências legais e de inteligência também usam uma nova tecnologia, chamada trilaterização, que permite monitorar a localização de um indivíduo. “É o Grande Irmão ao extremo”, disse Alex Fielding, especialista em data centers.
Além de abrir o data center de Utah, o que supostamente está previsto para este ano, a NSA ampliou secretamente seu acesso a dados de comunicações dentro dos Estados Unidos, segundo denunciantes. Nada do que foi revelado nos últimos dias sugere que os espiões da NSA tenham violado a lei americana.
Em 7 de junho, o presidente Barack Obama defendeu a coleta de dados pela agência. “Ninguém escutou o conteúdo do telefonema das pessoas”, afirmou ele.
Rotenberg, referindo-se aos limites constitucionais a buscas e apreensões, disse que “é um pouco fantasioso achar que o governo pode apreender muita informação sem implicar os interesses dos cidadãos americanos na Quarta Emenda”.
Com informações de Observatório da Imprensa.
Tudo ao mesmo tempo agora na rede
junio 28, 2013 14:29 - no comments yetA população conectada no mundo – 2,7 bilhões de pessoas – passa, todos os meses, mais de 35 bilhões de horas na internet. Isso equivale, segundo cálculos do site Go-Gulf.com baseados em consultorias como comScore Data Mine e Pew Research, a 3 milhões, 995 mil e 433 anos (3.995.433 anos!!). A questão é: como os usuários sentem a percepção desse tempo?
A cada ano que passa, ouvimos mais a expressão: “puxa, esse ano está voando mais que o anterior”. E, quando dizemos “vou dar só uma olhadinha no Facebook”, acabamos ficando horas na web sem nos darmos conta.
Nicholas Carr, autor do livro O que a internet está fazendo com nossos cérebros, disse num artigo recente no site Edge.org estar preocupado com a aceleração do tempo atual, pois a tecnologia da informação estaria nos colocando na velocidade “warp” de Jornada nas estrelas. “Estou ciente de que minha própria percepção de tempo foi alterada pela tecnologia. Se eu usar um computador ou conexão web um pouco mais lentos que os meus, mesmo que por questão de segundos, acho a espera quase intolerável. Antes, nunca tinha estado tão consciente (e perturbado) pela passagem de meros segundos”, escreve Carr.
Especialistas corroboram esse tipo de experiência. E não é de agora que a sensação de urgência despertada pela vida ubiquamente on-line recebeu atenção de cientistas. Um estudo do Departamento de Ciência e Tecnologia da Universidade de Hong Kong já estudava em 2004 o efeito de diferentes cores em indicadores de downloads no monitor sobre a percepção de tempo dos usuários, enquanto o antropólogo dinamarquês Andreas Lloyd escreveu na Universidade de Manchester, em 2005, que as tecnologias de informação e comunicação, ao mesmo tempo que nos liberaram dos “ritmos e tempo sincronizado da sociedade”, diluíram as fronteiras entre horas de trabalho e de lazer. Pouco antes da virada do século XXI, a fabricante suíça de relógios Swatch sintetizou o sentido geral de urgência conectada criando o “Internet Time”, horário bizarro que substitui as 24 horas de um dia por 1.000 “beats” de internet, cada um com duração de 1,264 minuto.
– O mundo virou mais rápido. O tempo digital é mais veloz que o nosso tempo cronológico. E isso muda tudo – diz a psicóloga Luciana Nunes, do instituto Psicoinfo. – A velocidade é uma coisa importante e cada vez mais exigida no mundo mobile. E é parte dessa velocidade digital a necessidade de fazer várias coisas ao mesmo tempo. Como ver novela e estar on-line num celular ou tablet.
Ação contraposta à reflexão
É justamente essa demanda multitarefa que aparentemente nos “rouba” o tempo. Mas essa é uma falsa sensação, de acordo com Junia de Vilhena, coordenadora do Laboratório Interdisciplinar de Pesquisa e Intervenção Social e professora do Departamento de Psicologia da PUC-Rio.
– O tempo da contemporaneidade é o tempo da ação, que não vem acompanhada da meditação ou da reflexão – define Junia. – E a percepção de que “nunca dá tempo” na verdade é uma consequência de que a gente mesmo não “faz” o tempo.
Segundo a professora, é impossível dar conta de todas as demandas, responder a todas as solicitações. Essa ansiedade nos leva achar que estamos sempre “perdendo” alguma coisa.
– É preciso ter uma certa disciplina, e optar por às vezes frustrar o outro, ser capaz de fazê-lo perceber que “não, não estou disponível para você as 24 horas do dia” – afirma.
Segundo analistas, o tempo da geração Y é diferente do tempo da anterior, até porque a vida urbana contemporânea tem outro ritmo hoje, mais vertiginoso.
De acordo com a psicóloga Luciana Nunes, a rapidez do mundo digital se faz presente até nas mais corriqueiras lidas diárias.
– Por exemplo: na escola, não adianta o professor passar uma tarefa de casa para a próxima semana. Os jovens precisam de desafios. Em vez de mandar tarefa de casa gigantesca, eu peço: em meia hora, as respostas das questões dois e três – conta.
Gargalo de processamento humano
A adaptação muito rápida a novos intervalos de tempo nos levou a uma espécie de sensação de estranhamento com o tempo. O psicólogo André Mascioli Cravo, professor adjunto da Universidade Federal do ABC, em São Paulo, e doutor em neurofisiologia, opina que, como na internet quase tudo é instantâneo, nos desacostumamos a esperar pelas coisas.
– E tentar fazer tudo ao mesmo tempo tem um efeito na atenção, pois há um gargalo, um limite em nossa capacidade de processar informação – diz Cravo.
Se a informação na internet nos é útil e conveniente, por outro lado a sensação de perda de tempo também é a tradução de que vamos deixando de lado o tempo para pensar, para o ócio, o tempo para se estar consigo mesmo, diz Junia de Vilhena.
– O tempo em que ficamos no espaço virtual é uma coisa; mas é outro o tempo de encontrar concretamente alguém, ao vivo, e olhar em seus olhos – sentencia.
Já Luciana Nunes indica que as novas percepções de tempo podem augurar as transformações anunciadas pela novíssima sociedade pós-industrial.
– A educação mudou, a economia mudou, a comunicação mudou. Com isso tudo, as relações se transformaram. Quando as relações mudam, muda a cultura, e a cultura é a base da história. Então, no fim das contas, estamos mudando a história – resume.
Com informações de Observatório da Imprensa.
Evento: Seminário Tecnológico sobre Padrões Abertos para Web
junio 27, 2013 14:26 - no comments yetO Comitê Técnico de Implementação de Software Livre do Governo Federal, convida você a participar do Seminário Tecnológico – Padrões Abertos para Web, que será realizada no dia 01 de julho de 2013.
Horários das Palestras:
09h às 09h10min – Porto Alegre – Abertura – Deivi Kuhn
09h10min às 10h – Curitiba – Flávio Lisboa – Sencha Touch – Javascript para Mobile WebApps
10h às 11h – São Paulo – Jomar Silva – Desenvolvendo Apps Multiplataforma para dispositivos móveis com HTML5
11h às 12h – São Paulo – Jean Carlo Nascimento (Suissa) – Be MEAN – Crie aplicações inteiramente em Javascript
12h às 13h – Rio de Janeiro – Guilherme Razgriz – Do SVG ao 3D uma viagem pelos vetores escalados
13h às 14h – Curitiba – Rafael Ferreira Silva – CSS 3 – A Web com mais estilo
Transmissão:
A atividade será transmitida via internet pelo serviço Assiste – Vídeo Streaming Livre do Serpro.
Para acompanhar, acesse: assiste.serpro.gov.br/cisl/.
Para encaminhar perguntas durante a palestra, enviem para o e-mail CISL cisl@serpro.gov.br, twitter @CISLGovBR ou facebook https://www.facebook.com/cislgovbr.
Maiores informações: https://www.softwarelivre.gov.br/eventos/seminario-tecnologico-padroes-abertos-para-web/
Com informações do CISL.
Lançado Rails 4.0
junio 27, 2013 14:26 - no comments yetA versão final do framework web Ruby on Rails 4.0 foi disponibilizada após um longo período de desenvolvimento e testes. Trazendo muitas novidades, e com a participação de mais de quinhentos desenvolvedores, foram realizadas mais de dez mil alterações entre a séria estável 3.2.x e a nova versão estável 4.0.
Boa parte do trabalho de desenvolvimento foi focado na construção de um framework robusto e simples para o desenvolvimento de aplicativos web modernos. Três conjuntos de funcionalidades se destacam neste lançamento o super fácil sistema de cache Russian Doll baseados em expiração de chaves e com gerencia automática de dependências de templates aninhados; aceleração da navegação através do uso de Turbolinks e o suporte a etags declarativas.
Foi adicionado ainda o suporte a live streaming para conexões persistentes e agora o Rails 4.0 é muito mais seguro ao lidar com threads.
O Active Record recebeu muita atenção sobretudo relacionado a scoping e traz uma query structure muito mais consistente. Todos as configurações de segurança agora estão definidas para serem mais restritivas por padrão.
Nesta versão houve também a remoção de muitas APIs antigas e de funcionalidades que não eram muito utilizadas pelos desenvolvedores, coisas como Active Resource, Active Record Observers e Action Pack são exemplos de funcionalidades que não estão mais no núcleo do Rails, mas que continuam existindo na forma de plugins.
Se você esta interessado em fazer a atualização para o Rails 4 existe um manual e um Railscast mostrando como fazer.
Mais detalhes você confere na nota de lançamento.
Com informações do Blog do Marcelo Soares.
A geografia da internet
junio 26, 2013 14:24 - no comments yetA expansão da internet e, por consequência, das fronteiras virtuais diante dos limites geográficos estáticos dos países trazem desafios para a governança da web. O gerenciamento do sistema de nomes de domínio da internet é responsabilidade da Icann, empresa estabelecida na Califórnia e, por tanto, sob sua legislação. Sempre que um usuário, em qualquer lugar do mundo, digita o endereço de um sítio, está de alguma forma usando os serviços da Icann, que traduz o nome digitado para um endereço numérico (i.e., “endereço de I.P.”) e ajuda na localização do computador de destino.
No Brasil, o Comitê Gestor da Internet (CGI.br), criado em 1995 e reestruturado em 2003, coordena e integra todas as iniciativas do setor. O governo brasileiro participa do Comitê Assessor Governamental (GAC, da sigla em inglês) da Icann, embora nunca tenha deixado de apontar seu vício de origem: a corporação adota decisões de alcance global, porém se encontra, paradoxalmente, sujeita à legislação e à autoridade do país onde está sediada.
Nesse contexto, o Brasil vê com preocupação a comercialização de novos domínios genéricos de topo (gTLDs) pela Icann, que permitirá a expansão dos nomes dos endereços da internet. Às pouco mais de duas dezenas de gTLDs existentes (.net,.com.,.gov etc) poderão se somar mais de mil novos domínios. Dentre os novos gTLDs comercializados, há alguns que remetem a nomes geográficos como.patagonia,.amazon,.shenzhen e.africa.
Um espaço virtual para uso exclusivo de um ente privado
A esse respeito, o GAC manifestou, ainda em 2007, no início das discussões sobre o programa de novos gTLDs, o entendimento de que os domínios que remetem a nomes geográficos são particularmente sensíveis e que a Icann só deveria delegá-los a entidades privadas com a anuência dos governos ou autoridades públicas relevantes.
Na última reunião da Icann, em abril, o Brasil e o Peru – membros do GAC – formalizaram oposição à delegação do domínio.amazon à empresa de comércio eletrônico homônima. Essa iniciativa foi endossada pela 4ª Reunião Ministerial da América Latina e Caribe sobre a Sociedade da Informação, também em abril, e pela Reunião de Chanceleres da Organização do Tratado dos Países Amazônicos, em maio.
Naturalmente, o Brasil e os demais países amazônicos nada têm a opor àquela empresa, cujas operações, aliás, apresentam volume crescente na região. Entretanto, não podem concordar com a criação de espaço virtual que, embora vinculável a uma área que representa metade do território nacional, seria cedido ao exclusivo uso de um ente privado dissociado do interesse público amazônico.
Um sinal para a comunidade da internet
Outros países diretamente afetados por solicitações similares, entre os quais Argentina, Chile, China, Japão e Bélgica, também denunciaram a inconveniência da delegação de domínios geográficos a interesses privados.
Apesar do apoio da maioria dos países membros do GAC, não foi aprovada recomendação contrária à delegação do gTLD.amazon para a empresa homônima. Para tanto, seria necessário apoio consensual. A discussão sobre o assunto deverá continuar na próxima reunião da Icann, em julho. O Brasil continuará a trabalhar para que o GAC venha a posicionar-se em defesa dos nomes geográficos, em sintonia com sua recomendação de 2007.
Acreditamos que tal decisão estabeleceria critérios claros para orientar a futura apresentação de pedidos de novos gTLDs, em benefício do funcionamento do sistema como um todo. Um desfecho percebido como justo será um importante sinal para a comunidade da internet.
Com informações de Observatório da Imprensa.