Ir para o conteúdo

Espírito Livre

Tela cheia

Blog

3 de Abril de 2011, 21:00 , por Desconhecido - | No one following this article yet.

Computador ficou 61% mais barato em dez anos

17 de Junho de 2013, 21:00, por Desconhecido - 0sem comentários ainda

04-02-2013_programming_computers

O preço médio dos computadores despencou 61,3% nos últimos 10 anos no Brasil, segundo levantamento realizado pela Intel e divulgado nesta segunda-feira, 17.

A queda é atribuída à isenção de impostos sobre os produtos de informática; ao aumento da fabricação local de componentes; à queda do dólar; ao aquecimento da economia local e à força do mercado brasileiro, hoje o quarto maior consumidor.

“Nunca o computador foi tão acessível para as camadas mais baixas da população”, afirma Fernando Martins, presidente da Intel Brasil. “Dez anos atrás, ter um computador em casa era o sonho de muitas famílias na classe C. Hoje, este sonho nunca esteve tão próximo da realidade.” Para ele, o consumo de produtos eletrônicos e de tecnologia está no alto da lista de prioridades das famílias.

Segundo a pesquisa, enquanto em 2003 um computador com configuração básica, equipado com processador Intel Celeron de 1.3 GHz, 128 MB de memória e sistema operacional Windows XP, custava entre R$ 1.890 a R$ 2.300 no varejo, atualmente é possível adquirir computadores com tela sensível ao toque e o novo sistema operacional Windows 8 por preços que começam a partir de R$ 1.300,00.

Os eletrõnicos – TV, som e informática – também foram avaliados pelo levantamento, e tiveram queda de 52,6% no preço médio na última década.

Com informações de Olhar Digital.



Como montar sua rede WiFi

17 de Junho de 2013, 21:00, por Desconhecido - 0sem comentários ainda

13-03-2013_redeswirelessC

A chegada da internet sem fio para acesso livre em uma cidade, em geral, é consequência da digitalização dos serviços municipais. A cidade que deseja se tornar digital precisará investir em infraestrutura, seja contratando operadoras de comunicações e provedores de acesso à internet banda larga, seja criando sua própria rede. O primeiro modelo pode ter menor custo no curto prazo, mas exigirá manutenção e revisão periódica de contratos, o que pode onerar o orçamento público nos anos seguintes.

Por isso, analistas sugerem que a melhor alternativa para as cidades é criar um anel de fibra óptica próprio, que passe por todas as instituições municipais, estaduais e também federais, compartilhando tecnologia e eventuais custos. No perímetro do anel, que integra os sistemas dos órgãos públicos, é possível instalar hotspots de acesso gratuito, com boa velocidade. A fibra se conecta então a um backbone, que pode ser de uma operadora, como Telebras; de uma empresa local ou municipal – Procempa, de Porto Alegre, ICI, de Curitiba, e Prodepa, do Pará, são empresas criadas para suprir as necessidades informacionais das cidades, e que acabaram se tornando as operadoras e provedoras onde atuam.

“O backbone da Telebras leva a banda larga até uma entrada da cidade e, dentro da cidade, a distribuição desse link se dá pelo backhaul de fibra que interliga os principais prédios da cidade. A partir daí se começa a distribuir a rede via WiFi”, explica Fátima Olmos, gerente de negócios e soluções do CPqD, centro de pesquisa e desenvolvimento em tecnologia que participou da implantação de diversas cidades digitais. Essa topologia não é mandatória. “Se a cidade quiser simplesmente instalar o WiFi, pode. Mas o backbone é necessário porque o tráfego nessa rede principal é maior do que no acesso da população”, diz.

Segundo Carlos Henrique de Oliveira, pesquisador e consultor também do CPqD, alguns passos são essenciais para um projeto de WiFi público funcionar com qualidade, sem frustrar a população. O momento mais importante de todos é o de planejamento, que se divide em várias fases. “Na primeira, se faz o levantamento de requisitos. Se isso não for feito de forma refinada, o projeto fica mais caro lá na frente”, diz.

Para não faltar nada no plano é preciso traçar os requisitos explícitos da rede de comunicação. Determina-se o número de hotspots, qual perfil de público atendido e locais, como postos de saúde, escolas etc. “Também determina-se requisitos implícitos: como vai ser concedido o acesso para cada participante da rede. É importante ter um controle do acesso para evitar que a banda fique muito compartilhada, o que vai irritar o usuário e tornar a experiência ruim”, diz Oliveira.

Também é preciso fazer o levantamento jurídico de funcionamento da rede, verificando quais as faixas de frequência poderão ser usadas. “A administração pública pode trabalhar com faixas não licenciadas, de 900 MHz, 2,4 GHz e 5,8 GHz (resolução 506 da Anatel), e com faixas de frequências licenciadas de 2,5 GHz e 3,5 Ghz (resoluções 544 e 537), em que parte é usada pela prefeitura para serviços dos órgãos da administração pública”, observa.

A segunda etapa consiste no site survey, ou, pesquisa de campo. Aqui, faz-se o levantamento da ocupação do espectro de frequências e da infraestrutura pré-existente. Os engenheiros determinam se as faixas de frequência a serem usadas estão disponíveis e se os locais onde haverá a instalação precisam de reformas ou ampliações. Na terceira fase acontece a predição de cobertura, baseada em softwares especializados para determinar a distribuição das redes de acesso (WiFi) e do backhaul (WiMAX ou WiMesh) para transporte dos dados até o data center da prefeitura. “O que vai determinar a experiência do usuário é um projeto criterioso destas redes em função da demanda dos usuários e dos tipos de serviços”, observa. É um aspecto importante, pois o projeto não é só cobertura de rádio, mas atendimento da capacidade de tráfego demandada.

A quarta etapa diz respeito à engenharia de tráfego, quando a prefeitura informa quais serviços vão usufruir da rede e a demanda mínima de cada um. Câmeras de vigilância, comunicação por voz sobre IP (VoIP) ou acesso a internet por dispositivos fixos e móveis, são alguns exemplos. “Nessa etapa de modelagem do tráfego, aplica-se o fator de overbooking. Não se deve fazer o planejamento com base no pico, pois isso deixa a rede ociosa na maior parte do tempo”, diz.

Por exemplo, um terminal VoIP precisa de uma rede de 256 kbps para funcionar satisfatoriamente, mas nem todos os terminais serão usados ao mesmo tempo. Com base em observações da forma de uso, os engenheiros de telecomunicações chegaram a um fator de overbooking de 4:1, segundo o qual é possível ter até quatro usuários no mesmo canal em momentos distintos. “Para uso de internet, o fator pode ser ainda maior”, ensina Oliveira.

Depois de tudo isso, vem a especificação dos equipamentos necessários para a construção da rede e a elaboração do projeto básico de referência. “Quanto mais completo estiver, melhor”, reforça Oliveira. Por fim, vêm as fases da licitação, acompanhamento da implantação, testes de aceitação e comissionamento da rede. Do planejamento à conclusão, em média, passam cerca de dois anos.

Por conta de tantas etapas e das necessidades específicas de cada município, é difícil estabelecer um custo médio por projeto. Mas é possível estimar o custo por quilômetro de fibra instalada, de ligação aos pontos e criação dos hotspots. Segundo Rogério  Santanna, ex-presidente da Telebras e atual consultor em governo eletrônico e telecomunicações,  “uma cidade média, que faça 10 km de fibra óptica, vai gastar cerca de R$ 1,5 milhão para fazer o backbone e R$ 850 para fazer a ligação por ponto com fibra óptica. Além dos custos dos hotspots”. Nesse caso, o preços dos equipamentos variam conforme as necessidades, como alcance do sinal e recursos de segurança.

Santanna chama a atenção para a importância do planejamento a longo prazo, prevendo a expansão da rede ou crescimento do consumo de banda: “O tráfego cresce no mínimo 10% ao ano. Se o crescimento da cidade ou da rede for acelerado, pode aumentar em até 30% a cada ano”. Prefeituras e estados não podem explorar comercialmente o acesso à internet; por isso, caso seja necessário obter recursos, a solução é recorrer a parcerias com provedores locais. Por fim, ele reforça que apenas dar acesso não é política pública. “Para ser uma cidade digital, tem de oferecer acesso gratuito em espaços públicos, praças, parques, órgãos da administração pública. Mas, também, é preciso oferecer serviços de governo eletrônico, como emissão de alvará e licenças”, lembra. (R.B.B.)

Com informações de ARede.



Em crescimento, sites buscam modelo de negócio viável

17 de Junho de 2013, 21:00, por Desconhecido - 0sem comentários ainda

15-02-2013_internet

O número de organizações de notícias sem fins lucrativos em plataformas digitais continua a crescer nos EUA, mas muitas delas ainda lutam para encontrar um modelo de sucesso a longo prazo. Um novo estudo do Pew Research Center concluiu que estas organizações estão descobrindo como diversificar suas fontes de financiamento, mas a maioria depende de doações de fundações (75%) e indivíduos (71%) para sobreviver.

Foram examinados o modelo administrativo, foco editorial e saúde financeira de mais de 170 organizações de notícias online no país. Entre estas organizações estavam sites com foco em notícias nacionais e locais, além de páginas dedicadas a temas específicos, como jornalismo investigativo, política e meio ambiente.

O cenário geral encontrado pelo estudo é misto. Há crescimento entre estes sites, mas muitos sofrem com a falta de recursos necessários para ampliar suas operações e garantir algum tipo de segurança financeira. Eles tentam, cada vez mais, encontrar novas maneiras de obter recursos. A maioria indicou que arrecadou 500 mil dólares ou menos em 2011. Mais da metade disse ter pelo menos três fontes de receita.

Frutos da crise

Ainda há dúvidas sobre a viabilidade, a longo prazo, do modelo de financiamento por doações de grandes fundações. No total, três quartos das organizações afirmaram que recebem atualmente verba de fundações. Pelo menos 61% das organizações disseram que o dinheiro de doações foi responsável por um terço de seu financiamento inicial, mas apenas 28% disseram que estes financiadores renovaram a doação.

Além das fundações, muitas organizações adotam uma combinação de publicidade (ou patrocínio de empresas, como é chamado por algumas delas), eventos e parcerias de mídia. Mas quando comparada ao dinheiro gerado pelas doações, a fatia destas outras fontes ainda é pequena.

Muitos dos sites foram fundados durante ou logo após a recessão nos EUA, quando muitos jornalistas perderam seus empregos e acabaram se aventurando em modelos alternativos de jornalismo. O crescimento deles chamou a atenção da Receita Federal americana, que estaria sendo mais rígida no processo de concessão do status 501(c)(3) – que garante isenção de impostos para doações – para este tipo de organização. Mas apenas 11% das organizações pesquisadas disseram ter tido problema com a Receita.

Ainda segundo a análise do Pew, os números sugerem que alguns grupos que conseguiram o status 501(c)(3) estão indo melhor do que os outros: tendem a ter múltiplas fontes de financiamento, além de orçamentos e equipes maiores do que grupos que dependem de outras organizações.

Alguns dados encontrados pelo estudo:

** A maioria das organizações emprega até cinco pessoas.

** Mais de um terço têm como foco notícias do estado, seguido por notícias locais e, depois, pelas notícias nacionais.

** 26% delas cobrem notícias de interesse geral, com o resto dividido entre temas como saúde, meio ambiente e governo.

** Muitos dos sites continuam a ver crescimento de público: 79% dos veículos sem fins lucrativos disseram que seu tráfego aumentou no último ano, e um quarto dos sites reportaram crescimento de mais de 75%.

** Um dos maiores problemas vistos pelos membros das organizações sem fins lucrativos é “encontrar tempo” para administrá-las (62%) – a maioria disse que dedica de 10 a 24% do seu tempo para este fim.

** Há um senso de otimismo: 81% acreditam que terão estabilidade em cinco anos.

Com informações de Observatório da Imprensa.



“Não posso permitir que o governo destrua a liberdade da internet”

17 de Junho de 2013, 21:00, por Desconhecido - 0sem comentários ainda

18-06-2013_internet

Edward Snowden desembarcou no aeroporto internacional de Hong Kong, há aproximadamente um mês, com quatro laptops que lhe davam acesso a algumas das informações mais sigilosas do governo americano. Vindo do Havaí, onde trabalhava em uma empresa que presta consultoria para a Agência de Segurança Nacional (NSA), Snowden, de 29 anos, é o homem responsável pela maior quebra do sistema de inteligência da história recente dos EUA.

Ele revelou que, em nome da guerra contra o terror, o governo americano armou um gigantesco esquema de vigilância de telefones, emails e todo tipo de comunicação online. Diante da revelação, a NSA ressaltou que monitorava via internet “apenas estrangeiros”, e não cidadãos americanos, como se a observação suavizasse as coisas.

Nas últimas semanas, Snowden foi descrito por organizações de notícias como “o homem mais procurado da América” e chamado de “desertor” por membros do Congresso americano, que exigem que ele seja punido. Depois de vazar as informações sigilosas – publicadas pelo jornal britânico The Guardian e pelo Washington Post – e revelar sua identidade, ele desapareceu. Em entrevista ao Guardian, ele justificou sua ação: “Não quero viver em uma sociedade que faz este tipo de coisa”.

Antes de sumir, Snowden também deixou claro que, apesar de querer se identificar, queria evitar se tornar foco da cobertura midiática. “Não quero a atenção pública porque não quero que a história seja sobre mim. Quero que seja sobre o que o governo americano está fazendo”. Ainda em entrevista ao jornal britânico, ele afirmou: “Eu realmente quero que o foco esteja nestes documentos e no debate que, eu espero, acontecerá entre cidadãos em todo o mundo sobre em que tipo de mundo queremos viver”.

Cubo mágico

Snowden tinha a ideia de que não podia confiar nas grandes e tradicionais organizações de mídia de seu país. Procurou, em vez disso, jornalistas alternativos e que estivessem à vontade com a cultura dos blogs e das mídias sociais. Confiou no comentarista do Guardian Glenn Greenwald, que vive no Brasil. Os dois começaram a se corresponder em fevereiro – sem que Greenwald soubesse a identidade de seu interlocutor. Um mês antes, Snowden já havia procurado a jornalista e documentarista Laura Poitras.

Greenwald não sabia se as informações que recebia eram genuínas, e portanto não fez nada com elas. Em março, recebeu uma ligação de Laura, que o convenceu de que o assunto era sério. Greenwald e Snowden estabeleceram um sistema seguro de comunicação para a troca de documentos sobre o programa secreto de vigilância da NSA, batizado de Prism, que coleta informações das principais empresas de tecnologia do mundo.

No fim de maio, Greenwald viajou a Nova York para conversar com editores do Guardian, e, no dia seguinte, foi com Laura para Hong Kong se encontrar com Snowden. Laura e Greenwald nunca haviam visto uma foto do vazador. “Ele tinha um esquema elaborado para nos encontrar”, conta o jornalista. Eles tinham que ir a um lugar específico no terceiro andar de um hotel e pedir, em voz alta, informações sobre o endereço de um restaurante. Snowden disse a Greenwald que estaria segurando um cubo mágico.

Os dois jornalistas ficaram surpresos ao encontrar um homem de 29 anos como seu informante. “Eu esperava um veterano grisalho de 60 anos, alguém do alto escalão do serviço de inteligência”, lembra Greenwald. Depois de escutar Snowden por uma hora, no entanto, ele diz que passou a confiar totalmente no jovem.

As entrevistas com Snowden – junto com os documentos vazados – deram ao Guardian diversos furos, da ordem mostrando que o governo americano havia forçado a gigante das telecomunicações Verizon a entregar os registros telefônicos de milhares de americanos à existência do Prism.

A história sobre o programa de vigilância online também foi publicada pelo Washington Post porque Laura, que trabalha como freelancer, havia entrado em contato com o repórter investigativo Barton Gellman sobre o assunto. Laura acabou trabalhando em conjunto com os dois jornais. Poucos dias depois da revelação do Prism, o Guardian divulgou a entrevista em vídeo concedida a Snowden por Greenwald – e filmada por Laura.

Sacrifício

Snowden tinha uma carreira sólida, um bom salário e uma vida confortável no Havaí. “Estou disposto a sacrificar tudo porque não posso, em sã consciência, permitir que o governo americano destrua a privacidade, a liberdade da internet e as liberdades básicas de pessoas em todo o mundo com esta máquina massiva de vigilância que está sendo construída secretamente”, afirmou.

Fato é que sua ação abriu o debate sobre o equilíbrio entre segurança e privacidade no mundo moderno. Mas – ao contrário do que desejava – ele também se tornou foco da discussão: seria Snowden mocinho ou bandido? Herói ou traidor?

Com informações de Observatório da Imprensa.



Debian 7.1 ”Wheezy” recebe primeiras correções

16 de Junho de 2013, 21:00, por Desconhecido - 0sem comentários ainda

debian

O projeto Debian disponibilizou Debian 7.1, e uma atualização para o lançamento de maio da última versão estável da distribuição Linux, Debian 7 “Wheezy”. A atualização se concentra principalmente em correções de segurança, com cobertura de 33 Alertas de Segurança Debian e suas correções associadas. Usuários que atualizam regularmente a partir de security.debian.org já terão recebido essas correções. Há também várias “correções importantes” para cerca de 60 pacotes como alsa-base, apt, cyrus-imapd, empatia, isc-dhcp, Keystone, LibreOffice, libvirt, openvpn, php5, readline, tzdata e xorg.

Todos os detalhes de quais pacotes foram alterados estão incluídos no log de alterações Debian 7.1. Como de costume, os desenvolvedores do Debian lembram os usuários que não precisam jogar fora todos os CDs ou DVDs apenas atualizar através de um espelho up-to-date após a instalação trará uma instalação Debian em mesma linha com o Debian 7.1. Imagens para nova mídia de instalação estão sendo disponibilizadas. Debian 7.1 já está disponível para download na internet ​​imagens pequenas e com torrents para o pleno DVD e imagens de CD.

Com informações de : The H Online