CCSL e NAP-SoL: Seminário de Teste de Software recebe inscrições
July 8, 2014 6:21 - no comments yetO Centro de Competência em Software Livre (CCSL/ICMC) e o Núcleo de Apoio à Pesquisa em Software Livre (NAP-SoL) promovem o Seminário de Teste de Software, que ocorrerá no dia 11 de agosto, a partir das 9 horas, no auditório Fernão Stella deRodrigues Germano do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP em São Carlos. As inscrições são gratuitas e podem ser feitas até o dia 4 de agosto.
O evento terá a participação dos pesquisadores internacionais de Engenharia de Software Elaine Weyuker e Tom Ostrand, que ministrarão palestras e minicurso sobre previsões de falhas e testes para software. O seminário será proferido em inglês e é destinado para estudantes de graduação, pós-graduação da área, profissionais da indústria e demais interessados.
Weyuker fará, a partir das 9h30, a palestra Looking for Bugs in all the Right Places, que abordará previsões de falhas de sistema de sofware que são baseadas em características de código e de dados de histórico de falhas e de modificações.
A palestra Variations of the Fault Prediction Model ocorrerá a partir das 10h45 e será ministrada pelo pesquisador Tom Ostrand, que falará das variações para previsão de falhas no teste de software e de impactos sobre os resultados da previsão.
No período da tarde, das 14h30 às 16h, Weyuker e Ostrand ministrarão o mini-curso Learning to work together: Some stories, some issues, some solutions, que abordará formas de construção de casos de testes funcionais para software e diferentes perspectivas de pesquisadores e profissionais na tentativa de alinhar os objetivos de cada um dos grupos.
Confira a programação:
9:00 – Recepção e café
9:30 – Palestra - Looking for Bugs In all the Right Places (Elaine Weyuker)
10:45 – Palestra - Variations of the Fault Prediction Model (Tom Ostrand)
14:30h – 16h – Minicurso: Learning to work together: Some stories, some issues, some solutions (Elaine Weyuker e Tom Ostrand)
Local: auditório Fernão Stella de Rodrigues Germano (bloco-6). O ICMC fica no Campus 1, Av. Trabalhador são-carlense, 400.
Para inscrições: icmc.usp.br/e/9932e
Sobre os palestrantes:
Tom Ostrand
Tom Ostrand has been a software researcher at AT&T Labs, Siemens Corporate Research, and Sperry Univac, and a member of the Computer Science Department of Rutgers University. He is presently a Visting Scholar at the Rutgers Center for Discrete Math and Computer Science. His research interests include software fault analysis and prediction, test generation and evaluation, and tools to aid software development and testing.
Tom is a life senior member of the ACM, and a past Member-at-Large of the ACM/SIGSOFT Executive Committee. He has served as Program Chair and Steering Committee member of the International Symposium on Software Testing and Analysis, and of the PROMISE Conference on Predictive Models in Software Engineering. He co-chaired the industry track of the 2012 International Conference on Software Testing. Tom has served as associate editor of the Empirical Software Engineering journal and IEEE Transactions on Software Engineering.
Elaine Weyuker
Elaine Weyuker is currently an independent consultant, having worked as a Distinguished Member of the Technical Staff at AT&T Labs, a Professor of Computer Science at the Courant Institute of Mathematical Sciences of NYU, a Lecturer at the City University of New York, a Systems Engineer at IBM, and a programmer at Texaco. Her research focuses on empirical software engineering and techniques to build highly reliable and dependable software. Much of her recent research involved designing techniques, building statistical models and developing a tool to automatically predict which files of large industrial software systems are most likely to contain bugs, for which she holds a patent.
She is a member of the U.S. National Academy of Engineering, an IEEE Fellow, an ACM Fellow and an AT&T Fellow. She is the author of 170 refereed publications as well as several books and book chapters. Among her awards are the 2012 US President’s volunteer service award, the 2010 ACM President’s Award, the 2008 Anita Borg Institute Technical Leadership Award for Outstanding Research and Technical Leadership, the 2007 ACM SIGSOFT Outstanding Research Award, the 2004 IEEE Computer Society Harlan D. Mills Award, the Rutgers University 50th Anniversary Outstanding Alumni Award, the 2001 YWCA Woman of Achievement Award, and the 2004 AT&T Chairman’s Diversity Award. She served as the chair of the ACM Council on Women in Computing (ACM-W) from 2004 – 2012 and has been a member of the Coalition to Diversify Computing’s Executive Committee for many years.
Resumo das palestras e do minicurso:
Resumo da palestra Looking for Bugs in all the Right Places
It would obviously be very valuable to know in advance which files in the next release of a large software system are most likely to contain the largest numbers of faults. To accomplish this, we developed negative binomial regression models and used them to predict the expected number of faults in each file of the next release of a software system. The predictions are based on code characteristics and fault and modification history data. This talk discusses what we have learned from applying the model to nine large industrial systems, each with multiple years of field exposure, ranging in size from several hundreds of lines of code, to millions of lines of code.
We will also discusses our success in making accurate predictions and some of the issues that had to be considered.
Resumo da palestra Variations of the Fault Prediction Model
Although the Standard Model for fault prediction that is based on file size, prior code changes, prior code faults, age of the code, and language has performed very well for predicting fault-prone files, we have investigated several additions to the standard set of predictor variables. We built models that included the following variations:
- calling structure of the software system
- counts of the number of developers involved with the software
- fine-grained counts of changes made to the software.
This talk will describe these variations and their impact on the prediction results, as well as na attempt to assess the influence of individual programmers on the fault-proneness of files.
Resumo do mini-curso Learning to work together: Some stories, some issues, some solutions
Category-partition is a systematic way to construct functional test cases for software. A test engineer analyzes the system specification, and writes a formal test specification that is processed by a generator tool to produce test case descriptions. The test specification describes how to combine values of the software’s input parameters and operating environment to form significant test cases.
Constraints can be inserted into the test specification in order to control the complexity and the number of generated test cases. Because the test specification is based on a system’s desired functionality, it can be created before system design or coding begin, providing an independent check for errors and inconsistencies in the functional specs.
In addition, test cases can be created early and will be ready for execution as soon as the code is available. The category-partition approach is an example of a testing research project that successfully transitioned to industrial practice.
We will briefly discuss two other testing research projects and look at their trajectories and try to understand what project characteristics help ensure successful adoption by practitioners and what characteristics are less likely to lead to success. Finally we will look at the different perspectives of researchers and practitioners and try to highlight ways of aligning the goals of these two different groups.
Por Assessoria de Comunicação NAP-SoL
Fundador do Google diz que máquinas com pensamento humano são ‘questão de tempo’
July 7, 2014 13:38 - no comments yetA ideia de uma máquina que pense e tenha capacidade de raciocínio como a de um ser humano é, ao mesmo tempo, intrigante e pavorosa. Automatizar o pensamento de uma pessoa é tarefa extremamente complexa, à qual cientistas e pesquisadores de todo o mundo se dedicam dia após dia. Para o fundador do Google, Sergey Brin, ainda estamos longe de atingir esse ideal, mas a chegada até ele é apenas uma questão de tempo.
Para ele, a velocidade de avanço tecnológico e científico, bem como as diversas frentes nas quais esse tipo de objetivo é o alvo final, devem levar a humanidade à criação de uma inteligência artificial “plena” nos próximos anos. O próprio Google está trabalhando nesse segmento, de forma a facilitar a vida das pessoas e criar diversos usos para uma máquina que pensa como gente. As informações foram publicadas pelo Business Insider.
Ele cita, por exemplo, o Brain Project, que usa um sistema de estímulos para que o computador aprenda com o que acontece ao seu redor e com si mesmo. É essa a tecnologia que vem sendo usada nos carros que dirigem sozinhos da companhia, aprendendo com tentativa e erro o que deve ou não ser feito, só que de forma segura e controlada.
Brin também citou a aquisição da DeepMind, uma empresa especializada no desenvolvimento de inteligência artificial, como um dos principais movimentos da companhia nesse segmento. Para ele, o negócio deve ser um dos principais responsáveis pelo futuro da tecnologia, garantindo que o Google esteja na vanguarda quando essa onda chegar.
O fundador do Google vai além e diz que, no futuro, máquinas serão capazes de fazer as coisas de maneira melhor e mais rápida que o próprio ser humano. Isso se deve a menor propensão ao erro e à capacidade de analisar de forma bastante rápida diversas instâncias de uma mesma situação. Vamos esperar que, quando isso chegar, tais computadores sejam nossos amigos.
NSA: espionagem atingiu mais pessoas inocentes que suspeitos
July 7, 2014 13:32 - no comments yetVocê já sabe que o governo americano espionou centenas de milhares de cidadãos americanos e do mundo, mas quantos exatamente foram os que tiveram sua privacidade invadida? Os números precisos ainda não foram divulgados, se é que é possível chegar a um total, mas de uma coisa o jornal The Washington Post tem certeza: 90% dos “investigados” não têm relação alguma com terrorismo ou qualquer tipo de atividade ilegal.
As revelações vêm de mais uma sequência de documentos revelada por Edward Snowden, o ex-analista de segurança que, há um ano, iniciou uma sequência de denúncias que motivaram no conhecimento público das operações de espionagem da NSA e nas mudanças destes mesmos métodos. Agora, ele se encontra no fim da liberação de suas informações confidenciais e, aparentemente, guardou “o melhor” para o final.
De acordo com a publicação, nove em cada dez donos de contas espionadas pela agência não tinham relação alguma com suspeitas de terrorismo ou qualquer ameaça à segurança nacional. Em sua maioria americanos, eles acabaram capturados em redes de obtenção de dados criadas com foco em outras pessoas. Assim, a posse de tais informações pela NSA não necessariamente significa que ela realmente olhou os dados. Mas ela poderia, se desejasse.
É essa condicional que torna tudo mais complicado e perigoso. Segundo o Washington Post, pelo menos metade dos arquivos encontrados em possa da NSA continham informações como nomes completos e endereços de e-mail. Muitos foram ocultados automaticamente pela agência – cerca de 65 mil –, mas pelo menos 900 podiam ser lidos sem problema algum, e eles não necessariamente estavam relacionados a suspeitos de terrorismo.
Por outro lado, o jornal pondera, existem sim informações de valor entre esse montante. A publicação fala sobre isso rapidamente, de forma a não interferir nas operações em andamento, mas cita a existência de documentos relacionados a projetos nucleares estrangeiros, uma calamidade militar em uma potência nada amistosa, dados de hackers que tentaram invadir sistemas de infraestrutura americanos e, ainda, indícios de negociações entre aliados dos Estados Unidos e potências rivais.
Além disso, o rastreio de comunicação levou à captura de construtores de bombas paquistaneses e suspeitos de atentados contra embaixadas dos EUA em diversos países da Ásia. As prisões foram resultado de uma operação que durou meses e teria passado por mais de 50 contas de email falsas.
Olhando dessa forma, parece que tudo correu para o bem. O problema é que as informações realmente úteis para fins de segurança nacional e proteção dos Estados Unidos são apenas uma pequena parcela do montante. Na maioria das comunicações rastreadas, o que se vê são detalhes sobre a vida pessoal, dilemas, problemas e segredos de dezenas de milhares de cidadãos, informações que não têm nada que estar nas mãos de autoridades locais ou internacionais.
O Post não sabe exatamente qual a parcela dos dados interceptados que pôde ser analisada. Mas informa que teve acesso a 160 mil e-mails e conversas de softwares de comunicação instantânea, incluindo fotos compartilhadas (nem todas comportadas), além de quase 8 mil documentos obtidos online. Todo esse montante teria sido obtido a partir do acesso não-autorizado a 11 mil contas de diversos usuários entre 2009 e 2012.
Informação “inútil”
As revelações colocam mais lenha na fogueira de um debate que já acontece há meses e critica durante a NSA por sua atuação com relação ao combate ao terrorismo. Em nome da segurança nacional, a agência tem invadido ostensivamente a privacidade de milhares de cidadãos.
Oficialmente, a organização pode realizar ações de vigilância apenas contra suspeitos de terrorismo residentes no exterior, enquanto nos EUA, toda e qualquer operação do tipo precisa ser aprovada judicialmente. O que se vê é exatamente o oposto disso, com grandes redes de interceptação sendo criadas para, no intuito de encontrar dados sobre ameaças ou conspirações, coletar dados de forma ostensiva.
De acordo com o The Washington Post, investigações do tipo, que envolvem o grampeamento de telefones ou conexões de internet, invariavelmente incluem comunicações que não necessariamente se relacionam ao caso em questão. Mas, ao contrário de forças policiais ou do FBI, por exemplo, a NSA não faz esforço algum para descartar os dados que não têm interesse algum para fins de vigilância. Pelo contrário, tais informações permanecem armazenadas em servidores por meses e meses, anos e anos, podendo ser consultadas a qualquer momento.
O jornal acredita que a parcela de cidadãos, americanos ou não, atingidos por projetos de vigilância como o PRISM e outros possa ser maior que as 900 mil pessoas informadas pelo governo no final do ano passado. É uma parcela gigantesca de gente espionada para um pequeno número de dados realmente relevantes, e um total menor ainda de operações que efetivamente resultaram na prisão de suspeitos ou culpados de ataques.
O perigo, como citado pelo próprio Snowden, é de que forma essas informações podem ser utilizadas. O ato, em si, já ultrapassa a “barreira da proporcionalidade” que transforma uma operação em bem-sucedida ou não, mas ainda assim, a NSA seguiu adiante. Agora que tudo está cada vez mais exposto, resta saber o que exatamente será feito e quais as mudanças que as revelações do ex-analista terão sobre as operações da agência.
Com quantos GB se faz um ser humano?
July 7, 2014 13:30 - no comments yetJá parou para pensar quantos gigabytes ou terabytes nós temos em nosso corpo? O pessoal do canal do YouTube Veritasium fez as contas e publicou em um vídeo.
Somos feitos de duas coisas, basicamente: código genético e células. O código genético contém todas as informações do nosso corpo, e cada célula contém uma cópia de todo nosso código genético.
O código genético é uma sequência de caracteres, e possui apenas 1.5 GB, ou seja, você poderia caber em um DVD e ainda sobrar espaço para colocar um filme ou umas músicas.
Porém, como cada célula possui uma cópia do nosso código, a coisa fica mais feia: estima-se que o corpo humano tenha 40 trilhões de células. Multiplicando 40 trilhões por 1.5 GB, temos um total de 60 zetabytes de informações – são 60 com 21 zeros. Muito? Sim, muito.
O mesmo canal estima que em 2020 toda a informação digital do mundo inteiro estará na casa dos 40 ZB, então se tentássemos colocar toda a informação de um ser humano em um HD gigante, nem todos os HDs do mundo juntos comportariam.
Um fato interessante é que 99,99% do nosso código genético é idêntico a todo ser humano, ou seja, apenas 0,01% nos torna únicos. Então, alguns muitos GB fazem você ser você.
Tablets vão ultrapassar venda de computadores já em 2015, afirma pesquisa
July 7, 2014 13:28 - no comments yetNão é novidade alguma que a indústria de computadores pessoais vem cada vez mais sofrendo com a popularização dos dispositivos móveis e amargando quedas significativas no número de vendas ano após ano. E se o novo relatório do Gartner divulgado nesta segunda-feira (07) estiver correto, para este ano o segmento deve experimentar nova retração de aproximadamente 6,8%.
Muito embora o relatório revele que, juntos, os dispositivos computacionais venderão mais de 2,4 bilhões de unidades, 88% desse montante será atribuído apenas aos smartphones e tablets. Além disso, 1,2 bilhão desses dispositivos virão equipados com o sistema operacional móvel do Google, o Android, confirmando a ampla dominância do robô verde.
Quanto aos tablets, o Gartner prevê que cerca de 256 milhões de unidades do gadget sejam vendidas este ano. Os PCs, em contrapartida, venderão cerca de 308 milhões de unidades. Neste ponto, a consultoria especializada em computação confirma que este ainda não será o ano em que os tablets tomarão o lugar dos computadores e se firmarão como os “novos PCs”. A reviravolta, no entanto, pode ocorrer já no próximo ano, quando os tablets venderão 321 milhões de unidades contra 317 milhões de PCs tradicionais, notebooks e ultrabooks.
Embora o segmento já venha sofrendo retrações há alguns anos, a deste ano deve ser menor que a de 2013, que foi de 9,5 pontos percentuais. De acordo com Ranjit Atwal, um dos responsáveis pela pesquisa do Gartner, essa pequena melhora se deve principalmente ao fim do Windows XP. Com a saída do antigo sistema operacional de cena, os usuários se veem compelidos a comprar novos computadores que ofereçam suporte ao atual Windows 8.
“A atualização do Windows XP principalmente nas empresas será a responsável por dar uma guinada no número de computadores vendidos”, afirmou Atwal. “A expectativa é que cerca de 60 milhões de máquinas sejam substituídas nas empresas somente neste ano”, disse. O suspiro, no entanto, não deve durar muito tempo e o segmento deve experimentar retração mais acentuada já no próximo ano.
O declínio é atribuído pela consultoria à popularização dos tablets, principalmente os de telas maiores, que oferecem uma experiência mais próxima a dos computadores para aqueles que estão experimentando migrar de um dispositivo para o outro. Apesar disso, o relatório revela que a tendência é que esse cenário mude e que tablets menores e de entrada se popularizem e se aproximem de alternativas high-end, como o iPad da Apple e o Galaxy Tab da Samsung.
“A próxima grande onda de adoção será conduzida pelos dispositivos de baixo custo ao invés dos mais caros e com mais funcionalidades”, afirma Atwal.
Quanto aos smartphones, a pesquisa ressalta a dominância do Android como sistema operacional mais popular do mundo e credita aos dispositivos do tipo a responsabilidade por 66% das vendas de dispositivos móveis somente em 2014.
Em relação ao seu principal rival, o iOS, para este ano o sistema do Google deve vender 30% mais que em 2013, contra somente 15% dos dispositivos com o sistema da Apple. Esse cenário, no entanto, deve mudar e trazer mais usuários para a alçada da Maçã devido ao lançamento de um iPhone com tela maior.
“Nossa expectativa é que o anúncio do iPhone 6 com tela maior atraia mais usuários, principalmente aqueles que gostam de telas maiores”, disse a diretora de pesquisas do Gartner, Annette Zimmermann.
Apesar de toda a expectativa e dos bons números, não se pode deixar de notar que o segmento de smartphones pode estar começando a apresentar seus primeiros sinais de retração. Em relação ao ano passado, as 1,9 bilhão de unidades esperadas para este ano representam um aumento de apenas 3,1%.