- Modelagem de imprevistos: Tudo bem que é impossível prever-se com antecedência os próximos movimentos da Bolsa de Valores, onde um raio cairá durante a próxima tempestade, onde ocorrerá o próximo sequestro relâmpago (50% de todos eles ocorrem na América Latina), etc, mas não custa tentar modelar o ambiente e tentar ter ao menos uma vaga idéia. Combinando quantidades enormes de dados, recorrendo aos "palpites" humanos e à aprendizagem das máquinas, será possível lidar com o imprevisto. Pelo menos é o que pensa Eric Horvitz.
- Segundo Kevin Lynch (Adobe Systems), as aplicações de computadores tornar-se-ão mais poderosas quando tirarem vantagem ao mesmo tempo do browser e do desktop. O que Lynch e sua equipe estão fazendo é permitir que os programadores construam suas aplicações baseadas em tecnologia Web para construírem aplicações que as pessoas possam rodar tanto "on line" quanto "off line".
- Chips Probabilísticos: Nasce de um paradoxo aparente. No mundo dos microchips, precisão e perfeição sempre são átributos obrigatórios. Cada passo do processo de fabricação dos chips envolve testes e testes e testes, a fim de assegurar que cada chip funcionará do modo esperado. Mas para Krishna Palem, um professor da Rice University, um pouco de erro pode até ser benéfico. Calma. Explico: a premissa de Palem é que para muitas aplicações - como áudio e vídeo, por exemplo - não é necessária precisão máxima. Pelo contrário, os chips poderiam ser projetados para produzir as rspostas exatas à vezes, mas somente darem respostas aproximadas nas demais. Uma vez que alguns erros e imprecisões passam a ser "toleradas", alguns efeitos aparecem: 1- redução das tensões de operação dos chips; 2-Prolongamento da vida útil das baterias; 3- Sistemas de criptografia, onde se chegar próximo de um código secreto já é um bom começo.
Existem outros itens. Voltarei em post futuro.
Para informação completa:
Technology Review Inc. All Rights Reserved.
http://www.technologyreview.com