Em memória de Giordani Rodrigues

Publicado em Quinta - 26 de Abril de 2007 | por fgp

Google denuncia noivo assassino

A curiosidade de uma mulher que realizou uma busca no google com o nome de seu noivo, revelou seu nome entre os fugitivos mais procurados dos EUA.
Leia mais...

Oracle lidera mercado de bd com 44,4%

Publicado em Quinta - 26 de Abril de 2007 | por Luiz Celso

O Oracle Database atingiu 7,3 bilhões de dólares em vendas em 2006, e rendeu à companhia de Larry Ellison 44,4% do mercado avaliado em 16,5 bilhões de dólares.

A Oracle continuou a figurar no primeiro lugar, impulsionada principalmente pela boa aceitação do produto 10g R2, diz o analista Carl Olofson em um relatório.

A IBM apareceu na segunda colocação com 3,5 bilhões de dólares em vendas com o DB2 e 21,2% do mercado, praticamente estável com os 21,6% registrados em 2005.

Em terceiro lugar apareceu a Microsoft, que cresceu 25% em receitas com o SQL Server. A companhia lucrou 3,1 bilhões de dólares com a solução e atingiu participação de 18,6% do mercado.

A quarta colocação foi ocupada pela Sybase e a quinta, pela NCR Teradata, que anunciou em janeiro passado sua operação independente. Outras soluções como MySQL, PostGreSQL e Ingres Corp atingiram 1,6 bilhão de dólares em vendas.

Para Mark Townsend, vice-presidente de gerenciamento de produtos de banco de dados da Oracle, a companhia não está se gabando quando afirma superar de longe seus três próximos concorrentes. A IBM está lentamente se apagando nesse cenário. A Oracle e a Microsoft estão ganhando espaço do DB2, ressaltou.
Leia mais...

MacBook hackeado em evento

Publicado em Sábado - 21 de Abril de 2007 | por Luiz Celso

Notebook da Apple hackeado durante conferência sobre segurança em Vancouver...
Leia mais...

Por que o Google comprou a DoubleClick?

Publicado em Quarta - 18 de Abril de 2007 | por Luiz Celso

Para começar é importante ressaltar que o negócio ainda não aconteceu, Google ainda não é dono da DoubleClick. A negociação ainda precisa ser aprovada.

Nada mais será como antes...
Acredito que esta aquisição pode ser o início de mais uma grande mudança no mercado de midia online, uma vez que o long tail terá mais e mais participação no mercado e clientes e agências terão um controle cada vez maior e mais direcionado dos investimentos, melhorando seus resultados.
Nos dois casos (long tail e controle/performance) o bolo (do investimento) cresce e todos saem ganhando.

Por que o Google comprou?
Por três motivos principais:
- Eles (o Google) notaram um incremento recente na importância da midia gráfica no meio online e isso vem de encontro a necessidade do Google de reforçar sua presença na venda de midia online para campanhas que trabalham o branding;
- Para ampliar sua rede e alcance;
- Para aumentar o controle de seus clientes sobre as campanhas e diversificar as fontes de informações analíticas a que tem acesso;
- Um quarto motivo foi evitar que a Microsoft (também interessada na compra) levasse o negócio, que é o que levou o Google a pagar uma quantia tão elevada (o mercado concorda que se considerarmos o negócio da DoubleClick isoladamente, não valia nem de perto os US$ 3.1 bi).

Como Google vai usar a Double Click?
Da maneira óbvia, vai ampliar sua rede, ampliar a oferta de formatos e oferecer a tecnologia DoubleClick para seus clientes.

A ferramenta vai mudar ou fundir com o Google?
A princípio não, mas com certeza com o passar do tempo sim, é muito provavel que a ferramenta vá estar ligada de alguma maneira ou incorporada ao sistema Adwords/Adsense.

O que deve mudar na DoubleClick?
Duas tendência importantes:
* Pode se tornar gratuita: É bem provavel que o Google vá oferecer a tecnologia de graça para seus anunciantes, ie, se você anuncia no Google tem a ferramenta de graça. Como ocorreu com Urchin, hoje Google Analytics;
* Pode incorporar o leilão: DoubleClick ja vinha anunciando testes neste sentido, não me admira que comecem a vender outras midias online por leilão, faz todo o sentido.

O que muda no mercado online?
Do ponto de vista da midia online muita coisa, isso vai mudar tudo.
* LEILÃO: A maneira que se compra midia vai mudar e o leilão estará cada vez mais presente;
* LONG TAIL: o long tail vai crescer muito - pequenos anunciantes estarão mais e mais presentes na publicidade online, disputando quase que de igual com os grandes;
* AGÊNCIAS: as agências terão cada vez mais uma função de especialistas em análise e otimização dos resultados;
* PERFORMANCE será cada vez mais a palavra do momento, com chances até mesmo de parte do leilão evoluir pra este formato (Microsoft e Google ja fazem testes neste sentido).

Foi um bom negócio para o Google?
Só o tempo dirá. A princípio a maioria acha que foi excelente negócio. Eles expandem seu mercado e enfraquecem seus concorrentes.

Qual o impacto no mercado?
* Acredita-se que agora é possivel que Microsoft compre ou faça algum tipo de acordo com AOL - que usa DART tecnologia DoubleClick para aferir a veiculação de anúncios no portal;
* A corrida pela compra de veículos deve aumentar;
* Uma nova bolha? Se acontecer é provavel que todos vão vender por muito mais do que valem. Poderia ser o inicio de uma nova bolha com motivação diferente da bolha de 2000;
* O Google não sai só na vantagem, com certeza a movimentação vai trazer novos desafetos e a famosa filosofia da empresa You can make money without doing evil será cada vez mais questionada.

A reação no mercado de ações vai ser importantissima na avaliação da aquisição, vale acompanhar.

Pra ficar de olho:
Em função da notícia, passou sem alarde e não se discute muito o acordo do Google com Clear Channel. Importantíssimo e muito significativo, não estamos falando só de online, aqui é onde as barreiras começam a desaparecer e vislumbramos o futuro onde on e offline se confundem e por consequência a publicidade toda muda. Antecipar estas mudanças pode fazer toda diferença para agências, veículos e players do nosso mercado. Lembrando que além deste acordo Google esta abrindo frentes no impresso, TV e outras frentes de radio (leia-se D Mark), bem como testes com resultados pelo telefone (e vejam só, o telefone pode virar veiculo).
Recomendo a todos dar uma olhada no último post do Marcelo sobre as implicações e reação do mercado sobre o fato do Google estar levando junto uma agência. Muito pertinente o alerta.
Leia mais...

Internet pela rede elétrica é testada em Porto Alegre

Publicado em Segunda - 16 de Abril de 2007 | por Luiz Celso

Computadores conectados à internet pela rede elétrica. Testes feitos pela Procempa (Companhia de Processamento de Dados de Porto Alegre) no bairro da Restinga, na periferia, atingiram velocidades de conexão muito superiores à conexão comum discada ou mesmo à cabo Porto Alegre - No bairro da Restinga, na periferia da capital gaúcha, está um dos únicos terminais de atendimento brasileiros que têm acesso à internet através de um fio ligado diretamente na tomada. Um aparelho converte o sinal de internet para a rede elétrica, que depois é reconvertido por outra máquina, similar a um modem. Ali, o computador é conectado normalmente.

Uma das vantagens de transmitir dados pela rede elétrica é que 98% das residências do Brasil têm acesso, explica Luis Cunha, assessor de Relações Institucionais da Procempa, que coordena o projeto. Pegamos um bairro afastado, que tem 120 mil habitantes. Apesar disso, não há cabeamento para internet rápida, porque não daria lucro. Puxamos um cabo de fibra ótica até lá e acoplamos na rede elétrica. Tem até fila para usar agora, conta.

O acesso à internet utilizando discagem, como funciona em boa parte das residências brasileiras, tem uma velocidade de 56 mil bites por segundo (56 Kb/s), normalmente. Utilizando a rede de cabos, chega a 2 milhões de bites por segundo (2 Mb/s). A internet pela rede elétrica testada em Porto Alegre funciona a 45 milhões de bites por segundo , e será trocada, em breve, por um acesso de 200 milhões de bites por segundo, diz Cunha. A transferência atual é pelo menos sete vezes mais rápida, dependendo do aparelho, explica o assessor de Projetos Especiais da Procempa Cirano Iochpe, e professor da Universidade Federal do Rio Grande do Sul.

Segundo Iochpe, a transferência de dados pela rede elétrica funciona convertendo os bits em pulsos elétricos, que circula depois como tensões e correntes. O desafio técnico agora é fazer essa rede ter uma performance adequada. Até hoje, esses pequenos projetos do Brasil usavam uma tecnologia que não era desenvolvida especificamente para o Brasil. No Brasil, o sinal perde força, tem ruídos. Os novos equipamentos têm filtros eletrônicos para manter o sinal forte e reduzir as interferências - que, no Brasil, são enormes, explica.

A facilidade, entretanto, é enorme. Em um prédio com acesso pela rede elétrica, é possível tirar o computador de uma tomada e ligar em outra, por exemplo. A Procempa já faz testes para dois tipos de usos: telemedicina, que é organizar consultas em centros médicos que possam ser realizadas em hospitais distantes com auxílio do vídeo; e um canal de retorno para interatividade da TV digital. Enquanto a TV digital seria transmitida por antenas, a interatividade poderia ser feita pela rede elétrica.

Iochpe diz que não há intenção comercial ainda. No início, pelo menos, não queremos competir com os provedores normais, apenas levar acesso a programas sociais, como telecentros e centros de saúde. A rede elétrica, diz Cunha, ainda não foi pensada como modelo de negócio.
Leia mais...

Monitores em OLED estão chegando!

Publicado em Sábado - 14 de Abril de 2007 | por Luiz Celso

Tudo sobre o novo material que tem tudo para substituir os monitores em LCD...
Leia mais...

Bancos públicos migram para o software livre

Publicado em Sexta - 13 de Abril de 2007 | por Luiz Celso

A economia de cerca de R$ 50 milhões que o Banco do Brasil (BB) teve desde 2000, quando iniciou a implantação de softwares livres em seus sistemas, não foi um fator determinante para a escolha dessa tecnologia. Segundo o gerente do Núcleo de Software Livre do BB, Vilson Carlos Pastro, trata-se da melhor solução do mercado para as necessidades do banco.

Pastro explica que a economia é mais um dos resultados da implantação dos programas de código aberto, mas não é o principal. Pode parecer estranho que evitar o gasto de R$ 50 milhões não seja uma boa razão para a mudança, mas o gerente explica: Para um banco, é importante, vital, ter segurança. Imagine se o sistema do Banco do Brasil fica fora do ar por um dia, qual o tamanho do prejuízo. E qual seria a desconfiança dos investidores. Além disso, informa, o orçamento anual para Tecnologia de Informação do BB é de R$ 1 bilhão. Se precisássemos, gastaríamos muito para ter tranqüilidade. E completa: O uso do software livre não é ideológico para nós.

Outro banco que optou pelo software livre desde 2003, quando iniciou a migração - e que economizou R$ 60 milhões por isso - foi a Caixa Econômica Federal (CEF). A vice-presidente de tecnologia da CEF, Clarice Copete, diz que se não tivesse um custo-benefício alto, niguém escolhia o software livre. De 65 mil terminais internos de atendimento, o banco migrou 45 mil deles para programas de código aberto.

Como a Caixa foi pioneira no desenvolvimento de um sistema que une apostas lotérias e serviços bancários, o programa se tornou alvo de interesse internacional, especialmente por conta da segurança contra fraudes . Chile, Panamá, República Dominicana, Israel e Índia já vieram nos visitar para conhecer o sistema, conta.

Uma questão que por algum tempo atrasou a opção de transferir para os programas livres os sistemas dos dois bancos foi a facilidade de se conseguir suporte técnico. Pastro, do BB, lembra que em 2001 tínhamos essa sombra. Mas agora já existe muito suporte especializado - e jamais faríamos a mudança sem segurança de que teríamos esse suporte. Na Caixa, Copete conta que, atualmente, o preço por hora que pagam pelo suporte técnico em sistemas antigos é até maior, em alguns casos, do que para os novos sistemas em software livre

Os dois bancos montaram estandes no Fórum Internacional Software Livre (FISL) para mostrar suas experiências. O FISL começou nessa quinta-feira (12) e termina amanhã (14). O encontro reúne os principais profissionais brasileiros e muitos estrangeiros que trabalham no setor de programação com softwares livres.
Leia mais...

Futuro do armazenamento de dados em bactérias

Publicado em Quarta - 11 de Abril de 2007 | por Luiz Celso

Sistemas de armazenamento em bactérias podem salvar dados por milhares de anos...
Leia mais...

Mais de 2 mil sites exploram falha cursor do Windows

Publicado em Terça - 10 de Abril de 2007 | por Luiz Celso

Mais de dois mil sites estão explorando a brecha de segurança nos cursores animados do Windows, de acordo com a fabricante de segurança WebSense.

As páginas ou estão hospedando código malicioso ou redirecionam usuários online para sites com malwares, afirmou o blog da WebSense nesta segunda-feira (09/04).

O número de páginas criadas para explorar o problema aumentou consideravelmente desde que a vulnerabilidade foi revelada pela Microsoft em 29 de março.

As ameaças continuarão a crescer até que correções sejam aplicadas em usuários finais e corporativos, afirmou Ross Paul, diretor de produto da WebSense.

Com esta janela, crackers estão pretendendo roubar dados confidenciais de máquinas desprotegidas.

O que vimos é que as ameaças tendem a ser usadas enquanto houver risco para usuários, afirmou Paul.

Na semana passada, a Microsoft quebrou sua rotina regular de atualização e divulgou uma correção fora do calendário em razão do perigo da vulnerabilidade, que ocorre na maneira como o Windows processa arquivos .ani, que permite que sites substituam o cursor com alternativas em estilo cartoon.

A brecha afeta quase todas as versões do Windows e é a terceira falha sem correção que a Microsoft corrige fora do seu cronograma desde janeiro de 2006.

Companhias tendem a corrigir suas máquinas em cronogramas fixos e podem não aplicar uma correção deste tipo quando é divulgada, disse Paul.

Usuários domésticos podem automaticamente receber o pacote se estiverem usando o Windows XP Service Pack 2, mas usuários de versões antigas do Windows não conseguirão.

O ataque é especialmente perigoso já que o problema relacionado ao arquivo .ani não exige interação do usuário para a infecção, afirmou a Sophos.

Como resultado, analistas de segurança estão recomendando a aplicação do pacote, mesmo que a Microsoft tenha afirmado na sexta-feira que corrigiria problemas de compatibilidade em algumas aplicações.

A WebSense afirmou que crackers da Europa e China parecem estar no coração dos ataques.

Grupos na região da Ásia-Pacífico e na China estão explorando a brecha, principalmente em máquinas localizada na Ásia para ganhar credenciais para populares games online, como Lineage.

Um segundo grupo na Europa, que é conhecido por ter usado outras falhas do Windows para instalar softwares maliciosos em máquinas, também adicionou ataques ".ani" a seu arsenal, afirmou a WebSense. Os ataques são direcionados a servidores e usuários norte-americanos.
Leia mais...

3G no Brasil

Publicado em Segunda - 09 de Abril de 2007 | por Luiz Celso

Os sistemas de Terceira Geração (3G) de telefonia celular já são uma realidade em países da Europa, Estados Unidos, Austrália e Japão. No final de 2006 mais foram registrados mais de 150 milhões de celulares 3G em operação no mundo.

E o que o usuário ganha com a 3G? Para aqueles que utilizam o celular apenas para voz, ou seja, falar com outras pessoas, muda muito pouco.

O que a 3G acrescenta aos sistemas atuais de celular é uma conexão de dados de alta velocidade, ou seja, a Banda Larga Móvel.

Os sistemas 3G existentes no mundo oferecem uma conexão de dados com velocidades próximas a 1 Megabit por segundo (Mbps), cerca de dez vezes superior à velocidade de conexão oferecida pelos sistemas GPRS/EDGE em operação no Brasil.

A Banda Larga móvel oferecida pela 3G coloca em outro patamar a utilização de serviços no celular como:

• Entretenimento (música, jogos, vídeos etc.)
• E-mail e acesso a serviços corporativos
• Serviços de informação e localização
• TV móvel
• Mobile banking e pagamentos via celular.

A 3G promete dar fim ao sofrimento dos usuários destes serviços no Brasil, submetidos hoje a conexões de baixa velocidade e a restrições de capacidade de rede. Abre-se um novo campo para os desenvolvedores destes serviços que poderão propiciar aos usuários uma experiência mais rica.

Além dos serviços listados acima, as conexões 3G são uma alternativa de acesso em banda larga à Internet, competindo com o ADSL das operadoras de telefonia fixa e o cable modem das operadoras de TV a cabo. A conexão de desktop ou notebook à Internet é efetuada utilizando como modem o próprio telefone celular, um celular na forma de uma placa PCMCIA ou um pequeno modem 3G do tamanho de um celular convencional que se conecta ao computador através de uma porta USB.

A Vivo foi a primeira operadora de celular a ter uma rede 3G em operação no País. Esta rede, de tecnologia EVDO apresenta, no entanto, cobertura limitada a apenas algumas regiões de 24 cidades brasileiras.

Em junho, a Telemig Celular começa a colocar sua rede 3G em operação, na cidade de Belo Horizonte. A operadora mineira será a primeira prestadora do serviço de telefonia móvel do Brasil a ter uma rede 3G em operação comercial com a tecnologia utilizada pelas operadoras GSM em todo o mundo (WCDMA/HSDPA). Esta tecnologia deve ser adotada por todas operadoras de celular do Brasil, inclusive a Vivo.


Apesar de outras operadoras, como a Claro, terem freqüências disponíveis em 800 MHz para a implantação do 3G por aqui, a exemplo do que está fazendo a Telemig, as operadoras estão esperando a licitação de freqüências de 3G, a ser promovida pela Agência Nacional de Telecomunicações (Anatel) este ano, para implantar suas redes.

A expectativa é que uma implantação massiva de redes 3G ocorra entre o final de 2007 e início de 2008.

Finalmente, um aspecto que não pode ser esquecido é a disponibilidade de aparelhos 3G a preços acessíveis, possível apenas com o ganho de escala obtido pelo crescimento da quantidade de celulares 3G no mundo.
Leia mais...