sábado, 29 de janeiro de 2011

Comboio de vice-governador de Kandahar foi atingido por motocicleta onde estava suicida.


O vice-governador da província de Kandahar, no Afeganistão, foi morto em um ataque suicida neste sábado (29). De acordo com autoridades afegãs, o suicida atacou o comboio onde Abdul Latif Ashna estava, quando o vice-governador era levado para o trabalho, na cidade de Kandahar.
O porta-voz do Ministério do Interior afegão Zemery Bashery, afirmou que o suicida estava em uma moto. Ele jogou a moto contra o carro onde estava Ashna e explodiu o dispositivo que levava.
Três funcionários que faziam a segurança do vice-governador ficaram feridos no ataque, segundo o porta-voz.
O embaixador americano no Afeganistão, Karl Eikenberry, que estava visitando Kandahar, afirmou que a morte do vice-governador não vai prejudicar os esforços para derrotar os militantes que agem no país.
"A perda de um grande vice-governador como ele é um retrocesso. O que vemos frequentemente (no país) são líderes afegãos emergindo e o povo se juntando a eles em um esforço para estabelecer a segurança nesta província", disse Eikenberry a jornalistas.
Forças afegãs e internacionais aumentaram sua presença em Kandahar recentemente para tentar conter os insurgentes do Talebã na província. A cidade de Kandahar é o lugar onde nasceu o líder do Talebã, mulá Omar.

Rússia diz ter identificado suicida de ataque a aeroporto


Investigadores russos afirmaram neste sábado que o suicida que matou pelo menos 35 pessoas em uma explosão no principal aeroporto internacional de Moscou no dia 24 de janeiro tinha 20 anos e era nativo do norte do Cáucaso, reportaram agências de notícias.
O porta-voz do comitê de investigações Vladimir Markin afirmou que o suicida já foi identificado, mas que seu nome não será divulgado enquanto a apuração continuar.

Ex-Destiny's Child faz shows no Brasil em março. Kelly Rowland se apresentará em São Paulo e Florianópolis. Cantora gravou 2ª música mais executada no mundo em 2010


A cantora Kelly Rowland
A cantora norte-americana Kelly Rowland fará dois shows no Brasil em março. A ex-integrante do grupo vocal Destiny's Child, do qual Beyoncé também fez parte, tem apresentações marcardas em São Paulo, no dia 5; e em Florianópolis, no dia 6.
Dona da 2º música mais executada no mundo em 2010, "When love takes over", Kelly deu início à sua carreira solo em 2002, quando gravou a canção "Dilemma" em parceria com o rapper Nelly. No ano seguinte, lançaria seu primeiro disco solo, "Simply deep". Em junho de 2007, saiu "Ms. Kelly", disco que contou a colaboração, entre outros do rapper Snoop Dogg.
Junto do Destiny's Child, vendeu mais de 50 milhões de CDs pelo mundo, emplacou 4 hits em primeiro lugar na tradicional parada da revista "Billboard" e foi homenageada com uma estrela na Calçada da Fama de Holywood em março de 2006.
Kelly Rowland em São Paulo
Onde: Local Flexx, Avenida Marquês de São Vicente, 1.767 - Barra Funda
Quando: sábado de carnaval (5 de março)
Horário: 22h
Ingressos: R$ 60; à venda na internet pelo site www.blueticket.com.br ou nos postos autorizados
Informações: (11) 3612-4402
Kelly Rowland em Florianópolis
Onde: Lagoa Iate Club (Lic), Rua Hypólito V. Pereira, 620 - Lagoa da Conceição
Quando: domingo de carnaval (6 de março)
Horário: 23h
Ingressos: R$ 60; à venda na internet pelo site www.blueticket.com.br ou nos postos autorizados
Liberar material de pesquisa será mais fácil
O Ministério da Ciência e Tecnologia negocia com outros órgãos do governo federal a instalação de locais nos aeroportos para receber e liberar material importado para pesquisas científicas no país.
O anúncio foi feito no dia  (27), durante a posse do novo presidente do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), o engenheiro eletrônico Glaucius Oliva.
A ideia é que profissionais treinados trabalhem nesses locais e ajudem a desburocratizar o processo de liberação do material para os pesquisadores. “Definiu-se pela implantação, inicialmente em um aeroporto, de um armazém especial dedicado à manipulação das importações para pesquisa, de forma a agilizar a liberação com pessoal treinado e qualificado”, disse Oliva.
Ele não citou em qual aeroporto o projeto piloto vai começar. O ministro Aloizio Mercadante reuniu-se nesta semana com representantes da Receita Federal, da Agência Nacional de Vigilância Sanitária (Anvisa) e do CNPq para discutir a proposta. De acordo com o ministro, que esteve na cerimônia de posse, o projeto deve ser concluído dentro de duas semanas.
A burocracia para a liberação de insumos e equipamentos importados que chegam nos aeroportos e portos do país é uma das principais e mais antigas reclamações dos cientistas. A maioria relata que espera meses para conseguir receber o material, prazo que compromete a qualidade de uma pesquisa.
Ao assumir a chefia do conselho, Oliva prometeu simplificar os procedimentos do CNPq para facilitar a vida do pesquisador. “Temos certeza que, com os mesmos recursos, poderemos fazer muito mais, se os procedimentos burocráticos forem simplificados”, disse ele.
Outra meta do novo presidente é dobrar os recursos para as bolsas de fomento à pesquisa nos próximos quatro anos. Em 2010, o CNPq atendeu 80 mil bolsistas, criou 14 mil bolsas de iniciação científica e 4 mil de mestrado e doutorado, com investimento de R$ 1,85 bilhão na formação de recursos humanos e estímulo à produção científica.
Oliva alertou para a necessidade de formação de mais engenheiros e melhoria do ensino de matemática e ciências nas escolas, se o Brasil quiser se tornar a quinta maior economia do mundo.
Antes de assumir a presidência do conselho, Oliva era diretor de Engenharias, Ciências Exatas e Humanas e Sociais do CNPq. Ele é formado em engenharia eletrônica pela Universidade de São Paulo (USP), com mestrado em física pela USP e doutorado em cristalografia de proteínas pela Universidade de Londres.
Paulista, Oliva coordena também estudos sobre biotecnologia na Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) e em instituto ligado aos ministérios da Ciência e Tecnologia e Saúde.

Os notebooks não são mais os mesmo de outrora.


Os notebooks não são mais como eram antigamente. Para nossa sorte, essa afirmação é mais que pertinente. Com o passar do tempo, essas máquinas portáteis ganharam potência, com processadores dignos de deixar o desktop no chinelo, perderam peso, melhoraram a capacidade com vídeo e estão se espalhando pelos lares brasileiros, já que seu preço, felizmente, também se tornou mais acessível.
Para escolher um notebook, assim como qualquer produto (tecnológico ou não), o mais importante é que o consumidor saiba qual a sua necessidade. Se o desejado é um notebook para fazer o básico: navegar na internet, utilizar aplicativos simples, como Microsoft Office, guardar suas fotos, músicas etc. Se a necessidade é maior: como rodar programas mais pesados, como AutoCAD, Photoshop, etc. Se ele é voltado para entretenimento: assistir vídeos em alta definição com o notebook ligado à TV, reproduzir Blu-ray, jogos e som com qualidade.
>> Veja os últimos notebooks testados pelo infolab
A maneira mais justa de dividir os notebooks é por preço. Dessa forma, podemos indicar o que há de melhor e pior, destacando os pontos que consideramos essenciais de cada categoria.

Até 1.500 reais

Essa faixa de preço é a categoria com maior número de representantes. Para começar, nela o usuário encontra os Notebooks e os Netbooks. Como? Sim, são considerados netbooks os portáteis com telas inferiores a 12 polegadas. Outra peculiaridade dos netbooks é a ausência de um drive óptico (Blu-ray ou DVD), além de menor capacidade de processamento, memória e armazenamento.
Os pequenos
Os processadores comuns nos netbooks são os Atom, da Intel. Mas não se engane, a diversidade de modelos e velocidades gera um desconforto na hora da escolha. A velocidade mais comum entre os modelos mais baratos é de 1,66 GHz (Atom N450), mas podem chegar a 2,3 GHz. Isso garante a execução de tarefas corriqueiras, como navegar na internet, executar mídias (áudio e vídeo) e aplicativos de escritório (como o Word).
Se você procura seu primeiro computador, ou substituir seu velho computador principal, o netbook pode não ser o ideal. A ausência de drive óptico, tamanho reduzido da tela e pouca capacidade de armazenamento serão frustrantes.
Mas, para quem quer uma segunda ou terceira máquina, o netbook é uma ideia interessante. A maioria tem peso na casa de 1 kg, o que torna bastante prático de carregar em uma mochila ou bolsa. Para os que estão sempre em movimento e precisam checar e-mails, digitar e editar documentos, os pequenos são ideias.
Os interessados devem ficar de olho na nova família de processadores Atom com dois núcleos, cujo o D525 é o primeiro a aparecer por aqui, com 1,8 GHz.
Os tradicionais
Nessa categoria, que abrange os notebooks com tela acima de 12 polegadas, encontramos velhos conhecidos: Celeron, Athlon e ainda o Pentium Dual Core, a maioria com velocidades acima de 1,8 GHz. Esses processadores, tanto os Intel como os AMD (Athlon), são considerados de segunda linha, para aquelas máquinas menos exigentes.
E realmente, se compararmos o desempenho desses processadores com os considerados mais top de linha, como Core i5 e i7 (Intel) ou Phenom (AMD), eles ficam muito abaixo do desejado. Afinal, ninguém gosta de um computador que trave. Mas, para o uso não intenso, que engloba navegar na internet, ver vídeos, ouvir música e ainda estar com o Word aberto, eles são suficientes e não causarão transtornos.
A maioria dos modelos com Windows é equipada com 2 GB de memória RAM e com o Windows 7 Home Basic. Os HDs variam de 320 a 500 GB. Se o espaço de armazenamento for menor que 320 GB, pesquise mais antes de comprar, pois provavelmente você encontrará um produto mais interessante pelo mesmo preço.
Para completar o quadro que torna essas máquinas baratas, elas acompanham chips gráficos nada potentes, com memória compartilhada e que servem para o básico. Se você pensa em rodar jogos, definitivamente sua faixa de preço não é essa.

De 1.500 a 2.500 reais

O Core 2 Duo, processador que já foi o topo de linha da Intel é hoje o representante mais básico dessa categoria, que oferece máquinas com configurações justas e preços ainda acessíveis.
Nessa faixa de preço, para a felicidade dos consumidores, já encontramos representantes de maior força de processamento, como os Core i3 e Core i5, da Intel, e os Phenom e Athlon X2, da AMD.
Além de processadores mais estáveis, com velocidades acima de 2 GHz, essa categoria também conta com 3G ou mais de memória RAM. Mas, para baratear o preço do produto, muitas vezes são oferecidas versões em 32 bits do Windows. Neste caso, procure versões em 64 bits. Em nossos testes no INFOlab, observamos que a versão em 64 bits trabalha muito melhor que a em 32 bits, mesmo o Windows 7 suportando os 3 GB. Se a máquina possui 4 GB ou mais, de nada irá adiantar a versão 32 bits do sistema, pois ela não consegue trabalhar com mais de 3 GB.
Outra opção que o usuário deve ficar atento nessa categoria é a versão do sistema operacional. Evite máquinas com a versão Home Basic do Windows 7, pois ela é limitada e não condiz com essa faixa de preço.
Aqui, para a felicidade de todos, o padrão de espaço de armazenamento deve ser os 500 GB. Há ainda equipamentos com HDs de 320 GB, mas consulte outras opções, pois essa quantidade já está abaixo do esperado para esses valores.
Uma questão importante é avaliar o investimento. O usuário deve se questionar se é possível investir em uma máquina com mais memória, processador veloz, espaço interno e recursos multimídia, como teclas dedicadas a música e processadores gráficos melhores. Quanto melhor a configuração, por mais tempo o consumidor terá uma máquina alinhada com o mercado.

De 2.500 a 3.500 reais

Saída HDMI, placas de vídeo ou chips mais potentes, processadores com mais força, mais memória RAM e multimídia. Essa categoria seria o equivalente aos carros completos, aqueles que vêm com ar condicionado, teto-solar, direção hidráulica, câmbio automático e motor 2.0, mas, ainda não são esportivos de luxo ou SUVs super caros, como um Pajero (Mitsubishi) ou um Captiva (Cevrolet).
Nessa categoria notamos a entrada de motores mais potentes, como os processadores Core i7 e Phenom X4, que conta com 4 núcleos. O padrão de memória é 4 GB em sistemas 64 bits. Os Core i7 dessa categoria normalmente são os da série 700. A velocidade comum para os núcleos é de 1,6 GHz, mas podem ser encontrados modelos de maior velocidade.
Um dos grandes diferenciais aqui é o tamanho de tela, que pode chegar às 17 polegadas, pois a função desses notebooks, muitas vezes, é substituir um desktop. Por conta dessa característica também encontramos placas de vídeo mais potentes como a GeForce 320M, que conta com 256 MB de memória dedicada além de compartilhar o restante com a memória da máquina. Aqui já dá para jogar uma ou outra coisa de maneira satisfatória, ligar o notebook em uma TV e reproduzir vídeos em full HD (1920 por 1080 pixels).
Para os computadores acima de 3.500 reais, espera-se todo o conforte e velocidade que há, inclusive os processadores Core i7 e Core i7 extream. Mas vale lembrar que nesse caso as grifes também contam muito. Os MacBooks (Apple) são um grande exemplo. Máquinas acima de 4 mil reais, como o MacBook Pro, podem ser equipadas com Core 2 Duo ou Core i3. Nessa categoria outros fatores entram em jogo e, o principal deles, é o design.

Não se precipite

Seja qual for sua necessidade ou faixa de preço, tenha em mente que pesquisar e buscar avaliações de outros usuários, redes de assistência técnica e informações é uma tarefa mais que necessária.
De preferência, tome um tempo para avaliar os produtos em loja. Assim é possível observar detalhes físicos, como a durabilidade do material, formato do teclado, conforto oferecido e aparência.

FBI realiza buscas contra hackers pró-WikiLeaks

FBI realiza buscas contra hackers pró-WikiLeaks

O FBI (polícia federal norte-americana) anunciou que executou mais de 40 mandados de busca contra os hacker que participaram dos ataques DDoS em prol do WikiLeaks.
Ontem (27), a polícia britânica (Met Police) anunciou a prisão de cinco membro do grupo hacker Anonymous, responsável pelos ataques de negação de serviço contra as empresas MasterCard, Visa e PayPal.
Porém, o FBI não deu detalhes sobre o conteúdo dos mandados de busca e sobre os supostos acusados.
É possível que os federais pretendam investigar os computadores desses suspeitos para averiguar dados e logs sobre os ataques.
No comunicado do FBI fica implícito que os acusados foram responsáveis pela criação das ferramentas para atacar os sites dessas empresas.

quarta-feira, 26 de janeiro de 2011

Incertezas voltam a cercar a Microsoft

Incertezas voltam a cercar a Microsoft


Há um ano, a Microsoft superou todas as projeções de receita de Wall Street com vendas explosivas de seu novo sistema operacional Windows 7, e alardeava otimismo sobre a recuperação no investimento em TI.
Nesta semana, com ações cotadas um pouco abaixo dos valores do ano passado, a maior produtora mundial de softwares deve reportar lucro mais baixo, em função da queda nas vendas de computadores pessoais, e enfrenta dificuldades para convencer os investidores de sua capacidade de conquistar espaço nos acelerados mercados de celulares e tablets.
"A Microsoft continua a ser um colosso nos computadores, e as máquinas equipadas com Windows continuam a vender mais de 300 milhões de unidades ao ano", disse Tim Bajarin, presidente da Creative Strategies, uma companhia de pesquisa de mercado do setor de tecnologia.

"Mas eles não conseguiram encontrar lugar na revolução dos smartphones, e mesmo que tenham sido os primeiros a defender o tablet, a Apple alterou o conceito do produto e deixou a Microsoft para trás", disse.
A maioria dos investidores antecipa que a empresa tenha registrado um trimestre sólido, mas se preocupa mais com os temores de que o novo Windows para celulares da Microsoft não esteja vendendo bem. E embora aprove a recente decisão de produzir uma versão do Windows para chips ARM, o mercado compreende que não haverá um desafiante acionado pelo Windows para enfrentar o iPad, da Apple, por pelo menos mais dois anos.
"Eu preferiria que eles tivessem realizado a mudança (para o ARM) dois anos atrás, e é algo em que deveriam ter pensado", disse Sid Parakh, analista na McAdams Wright Ragen. "Mas o jogo é longo. A questão passa a ser se o iPad rouba mercado aos produtos existentes da Microsoft ou se é um novo item de gasto no orçamento de eletrônica. Creio que seja um pouco dos dois."
As vendas de computadores pessoais, que representam o melhor guia para a situação geral da Microsoft, subiram em apenas 3,1 por cento no trimestre final de 2010, de acordo com a Gartner. O ano como um todo não confirmou o otimismo inicial, com alta de 13,8 por cento nas vendas de computadores, bem abaixo dos 19,2 por cento previstos pela Gartner no começo do segundo semestre.
De acordo com o Thomson Reuters I/B/E/S, analistas esperam que a Microsoft reporte lucro de 68 centavos de dólar por ação, abaixo dos 74 centavos no mesmo período do ano anterior.

Google vai contratar 6,2 mil pessoas em 2011

Google vai contratar 6,2 mil pessoas em 2011

De olho na expansão dos seus negócios nas área de software empresarial online, dispositivos móveis e publicidade local, o Google pretende contratar mais 6.200 profissionais ao longo de 2011 em todo o mundo.

De acordo com post de Alan Eustace, vice-presidente sênior de engenharia e pesquisa, no blog do Google, a empresa pretende bater um novo recorde com esse volume de contratações. Em 2007, ano em que o Google mais recrutou novos funcionários até agora, foram 6 mil novas admissões.
Diante do aquecimento do mercado brasileiro e da expansão dos negócios do Facebook no Brasil (hoje, principal rival da gigante de buscas), é provável que uma parcela dessas novas oportunidades sejam destinadas para os escritórios do Google em São Paulo (SP) e Belo Horizonte (MG).
Por enquanto, o Google Brasil tem 44 oportunidades em aberto no país. Dessas, 40 são para o escritório em São Paulo e 4 para Belo Horizonte.
Para concorrer a essas oportunidades, basta se cadastrar na página de empregos do Google Brasil. Os currículos devem ser redigidos em inglês.
Na semana passada, o Google anunciou o afastamento de Eric Schmidt do cargo de CEO da empresa. Schmidt, que vai continuar como conselheiro da empresa, deve receber 100 milhões de dólares do Google em ações.

A maior coleção do mundo de documentos sobre o Holocausto estará disponível na internet.

O Yad Vasham, memorial israelita do Holocausto, está se unindo ao Google para tornar fotografias e documentos interativos acessíveis aos internautas.

O projeto estreou hoje com uma coleção de 130 mil fotos que agora podem ser encontradas diretamente por meio do mecanismo de buscas do Google, usando palavras-chave.
A coleção deve se expandir no futuro para outras partes dos vastos arquivos do memorial.
Um componente similar aos de redes sociais permite aos internautas contribuir com o projeto, adicionando suas próprias histórias, comentários e documentos sobre familiares citados no material online.
O presidente do Yad Vashem, Avner Shalev, disse que mesmo com a possibilidade de a ferramenta ser mal utilizada por anti-semitas, o risco vale pelos benefícios a futuras gerações que busquem informações sobre seus ascendentes.
“Nosso objetivo é conectar o conhecimento e os dados do Yad Vashem a tecnologias modernas e disponibilizá-los para os jovens”, afirmou Shalev.
O projeto teve início há três anos no edifício de operações de busca do Google em Tel Aviv. A ideia surgiu de uma iniciativa do Google de incentivar seus funcionários a gastarem 20% do seu expediente em propostas que consideravam relevantes.
O Google usou tecnologia experimental de reconhecimento de caracteres óticos para gerar texto com documentos e fotos acessíveis por meio de diversos idiomas.
A próxima prioridade do Yad Vashem é digitalizar sua coleção de depoimentos de sobreviventes.
A estreia acontece um dia antes de as Nações Unidas determinarem um dia anual de lembrança do Holocausto.

Tão certo quanto 1+1 são 2, um quilo também será sempre um quilo. Ou não?



A medida usada para comprar arroz, carne, batata, frutas, chocolate e etc no supermercado – e que serve também para controlar os efeitos posteriores da comida na balança – deve, muito em breve, mudar.

Um grupo internacional de pesquisadores vem trabalhando há mais de uma década para encontrar uma forma de determinar o que é um quilo de forma mais precisa. Isso porque as medidas de peso de todo o mundo são padronizadas com a ajuda de um objeto, um cilindro de platina e irídio construído há 130 anos e que pesava exatamente o que foi estipulado como um quilo. O problema é que, ao longo do tempo, sua massa mudou.
No final do ano passado, o National Institute of Standards and Technology (NIST), o Inmetro americano, conseguiu grandes avanços em seu pedido de mudança do Sistema Internacional de Unidades, que busca uma nova forma de calcular não só o quilo, mas todas as unidades que derivam dele.
Se tudo der certo, até 2015, devemos ter uma medida mais padronizada e precisa que deve ajudar, principalmente, os experimentos científicos.
INFO Online entrou em contato com o NIST e com o próprio Inmetro para esclarecer como – e por que- essa mudança deve acontecer.
O que é o Sistema Internacional de Unidades?
Ele rege as medidas oficias do mundo utilizadas em todas as atividades, como comércio e ciências. Ele é composto por sete unidades-base: segundo (tempo), metro (comprimento), quilo (massa), ampére (corrente létrica), kelvin (temperatura termodinâmica), mol (quantidade de substância) e candela (intensidade luminosa). Dentre elas, a única que é determinada por um artefato é o quilo. O cilindro de platina e irídio é mantido no Escritório Internacional de Pesos e Medidas (BIPM), na França.
No sistema atual, não é apenas a unidade da massa que depende do quilo. A definição de ampére (corrente létrica), mol (quantidade de substância) e candela (intesidade luminosa) dependem desse artefato de platina e irídio. Por exemplo, um mol é definido como o número átomos de carbono 12 cuja massa total equivale a 12 gramas.Por que o cilindro não serve mais para determinar o quilo?
Sendo um objeto material, a massa dele está sujeita a variações decorrentes do uso e das condições ambientais. A massa do artefato mudou, embora não se saiba se para mais ou menos. Ao comparar o original com réplicas espalhadas pelo mundo, verifica-se uma variação pequena, na casa de dezenas de partes por bilhão. No Brasil, o Inmetro constatou uma variação de um quilograma, em cerca de 100 anos, de aproximadamente 50 microgramas.
Como será determinado o quilo?
Existem, basicamente, dois experimentos em andamento: um deles visa determinar o número de átomos em uma quantidade de matéria capaz de ser pesada, estabelecendo uma relação entre o quilograma e uma massa atômica (projeto Avogadro); o outro, e provavelmente o que trará resultados mais precisos, é um experimento eletro-mecânico que liga o quilograma a uma constante chamada de Planck h. É justamente este experimento proposto pelo NIST: aprimorar o valor da Constante de Planck h, uma importante constante na física quântica. Sabe-se que a matéria absorve e irradia energia em partes chamadas “quanta”. A energia do quanta é a constante de Planck vezes a frequência de sua radiação. A massa de um objeto pode ser medida pela comparação da força que a gravidade exerce sobre ele com uma força elétrica que compensa a força da gravidade. Isso pode ser feito em uma chamada balança de Watt, que trabalha com levitação magnética. Nela, a força elétrica é determinada medindo a corrente correspondente e sua voltagem; já as medidas elétricas podem ser expressas por meio da constante de Planck h. Se a constante for exatamente conhecida, então as medidas podem determinar a massa de um objeto. Atualmente seu valor está estabelecido em 6.626 068 96(33) x 10-34 kg m2/ s.
O Inmetro conhece esta proposta de mudança?
Sim. O Inmetro conhece a proposta de redefinição do quilograma e acompanha o andamento dos experimentos em andamento em diversos institutos nacionais, como o próprio NIST (EUA), PTB (Alemanha), LNE (França), Metas (Suíça), NMIJ (Japão).
Ela é realmente necessária?
Sim. A precisão das medidas, incluindo a redefinição do quilograma, é extremamente importante para dar ao Sistema Internacional consistência e robustez. Avanços científicos e tecnológicos anteriores já permitiram que outras unidades fossem redefinidas. O metro, por exemplo, deixou de ser um artefato em 1983, quando passou a ser definido pela velocidade da luz - uma constante física fundamental.
O que muda na nossa vida?
Uma nova definição do quilo permite a pesquisadores de todo o mundo expressar seus resultados com maior precisão e consistência. Com os valores das constantes fixos, é como se todos os pesquisadores estivessem falando a mesma língua. Como a variação da massa foi muito pequena ao longo dos anos, as maiores diferenças serão vistas no laboratório, em escalas usadas somente por cientistas. 

Top 10: Sedãs vão do popular ao luxo

Carro de pai, executivo ou de luxo. Não importa o rótulo, os sedãs ganharam o mercado brasileiro. Dos 30 modelos mais vendidos em 2010, segundo a Fenabrave (Federação Nacional da Distribuição de Veículos Automotores), 10 são três volumes. Quem gosta deste tipo de veículo, tem como opção entre modelos de alto luxo até os populares com motores de 1,0 litro. O iCarros selecionou 10 sedãs para todo tipo de gosto e bolso. Acompanhe:

10 – Audi A8 – R$ 505 mil
Piloto automático adaptativo, bancos com massageadores, tração integral e um motor V8 de 4,2 litros com injeção direta e 372 cv de potência. Esses são apenas alguns detalhes que fazem do Audi A8 um dos sedãs mais desejados do Brasil. O três volumes com as quatro argolas na grade é o top de uma categoria que ainda inclui modelos como o RS6, com um propulsor V10 de 580 cv, que acelera de 0 a 100 km/h em 4,5 segundos.

9 – BMW Série 7 – R$ 545 mil
O rival do Audi A8 também tem armas poderosas para brigar pelo consumidor deste mercado, como o motor de 12 cilindros de 6,0 litros com 544 cv de potência e aceleração até 100 km/h em 4,6 segundos. Há ainda a opção do V8 de 5,0 litros com 407 cv. Com as duas motorizações debaixo do capô, o dono deste sedã não vai ficar sem massagem nas costas e nem sem ver seu DVD nas telas espalhadas pela cabine.

8 – Mercedes-Benz C 63 AMG – R$ 338 mil
Ainda nas marcas alemãs, mas com um toque mais esportivo, esta versão da Mercedes mais vendida no Brasil inspira qualquer amante por esportivos. Ela esconde debaixo do capô um V8 de 6,3 litros com 457 cv de potência, capaz de levar o outrora sedã familiar de 0 a 100 km/h em 4,5 segundos. Entre os equipamentos, há um cronômetro no painel e o câmbio automático de sete velocidades.

7 – Toyota Corolla – R$ 62.110
O três volumes de médio porte mais vendido do Brasil já está na décima geração, a terceira nacional e assumiu a liderança depois de se renovar e ver o rival Honda Civic ficar para trás. O sedã é vendido com motor de 1,8 litro e 2,0 litros e em quatro versões de acabamento. No exterior,  já recebeu um facelift, com novos para-choques e lanternas traseiras, o que deve acontecer em breve no Brasil com a chegada da nova geração do rival.

6 – Honda Civic – R$ 68.160
Quando chegou à terceira geração nacional, em 2006, o Honda Civic causou impacto com seu visual fora do comum no segmento, em que a sobriedade é quase uma regra. Ganhou o gosto do público e vendeu mais que seus concorrentes até a chegada da atual geração do Corolla. O próximo Civic já foi mostrado no Salão de Detroit ainda como um conceito, mas com linhas próximas da realidade, deve chegar ainda neste ano para tentar retomar a ponta da tabela do mercado.

5 – Ford New Fiesta – R$ 50.150
O Honda City criou, abaixo dos médios, uma categoria de sedãs compactos com equipamentos, motorização e preços próximos a dos “irmãos maiores”. Um rival à altura não demorou para chegar, o Ford New Fiesta. O sedã “premium” vem do México com motor de 1,6 litro, ar-condicionado, direção elétrica, computador de bordo e outros equipamentos de conforto. Sua versão top pode vir até com sete airbags.

4 – Fiat Siena – R$ 30.300
Lançado em 1996, o Fiat Siena é um exemplo de como um modelo pode ir do popular ao luxo. A versão Fire tem motor de 1,0 litro e para ter direção hidráulica e vidros elétricos, por exemplo, é preciso pagar mais. A Sporting, que custa R$ 48.980, tem motor de 1,6 litro, rodas de liga-leve, computador de bordo, câmbio automatizado e outros itens.

3 – Volkswagen Voyage – R$ 32.220
O rival do Siena também vai do popular 1,0 até o iMotion 1,6, com câmbio automatizado. Mais que isso, o Voyage é um sedã com história. O nome vem desde 1982, acompanhando a primeira geração do Gol. Teve versões de duas e quatro portas e chegou a vir importado da Argentina. Na segunda geração do compacto, de 1994, o sedã saiu de linha e voltou somente em 2009, na quinta geração do “irmão”.

2 – Chevrolet Classic - R$ 28.044
De acordo com a Fenabrave, o Classic foi o sedã mais vendido do Brasil somando as vendas ao Corsa Sedan, que tem poucas unidades envolvidas. O veterano é o Corsa Sedan de segunda geração, a primeira brasileira, lançada em 1996. O três volumes sobrevive hoje com motor de 1,0 litro e pacote de acessórios bastante restrito para brigar com as versões mais simples de Fiat Siena e Renault Logan.

1 – Volkswagen Fusca
O sedã mais emblemático da história da indústria não poderia faltar neste top 10. Há quem o chame de hatchback ou até cupê, mas o Fusca sempre foi chamado de sedã pela Volkswagen. Há controvérsias também na história da criação do modelo, mas a versão mais conhecida é que o carrinho surgiu antes da Segunda Guerra Mundial como uma encomenda de Adolf Hitler a Ferdinand Porsche para criar um modelo popular. Hoje em dia, ele pode ser encontrado no mercado de usados ou renovado. No último caso, na pele do Volkswagen New Beetle.

terça-feira, 25 de janeiro de 2011

Dilema americano
Colunas de fumaça elevam-se do óleo queimado no locam em que afundou a plataforma Deep Water Horizon. Do poço jorraram quase 5 milhões de barris - o maior vazamento acidental de petróleo no mar em todo o mundo.
Em um escaldante dia de junho na localidade de Houma, no estado da Louisiana, o escritório local da British Petroleum - agora transformado no Centro de Comando do Incidente da Deep-water Horizon - está fervilhando de homens e mulheres circunspectos. Na sala de comando das operações, telas de vídeo exibem mapas da mancha de óleo e a localização das embarcações mobilizadas. Mark Ploen, vice-responsável pelas operações, está rodeado de gente que trabalhou com ele no vazamento do navio-tanque Exxon Valdez, 20 anos antes, no Alasca. “É como uma reunião de colegas de ginásio”, diz, sem ironia.
A 80 quilômetros dali, 1,6 mil metros abaixo da superfície do mar, o poço Macondo, da BP, estava lançando no fundo do golfo uma quantidade de óleo equivalente a um Exxon Valdez a cada quatro dias. No fim de abril, uma explosiva erupção no poço transformara a Deepwater Horizon, uma das mais avançadas plataformas de perfuração existentes, em uma montanha de metal queimado e retorcido no fundo do mar. Tanto as empresas petroleiras como as agências oficiais reguladoras sempre agiram como se esse tipo de catástrofe jamais fosse acontecer. E de fato nada desse tipo havia ocorrido no golfo do México desde 1979, quando um poço mexicano, o Ixtoc I, inundou de óleo as águas rasas da baía de Campeche. De lá para cá, as técnicas de perfuração foram aperfeiçoadas. A demanda por petróleo aumenta em escala irresistível, levando as companhias a se aventurar muito além das plataformas continentais. Antes desse acidente, os maiores riscos pareciam estar nos vazamentos de navios-tanque como o Exxon Valdez.

No prédio em houma, mais de mil pessoas tentavam organizar um plano de limpeza ambiental como jamais se vira no planeta. E outras dezenas de milhares estavam lá fora, esquadrinhando a superfície do mar em aviões e helicópteros e combatendo a mancha de óleo que se ampliava por meio de embarcações especiais de coleta e de um dilúvio de dispersantes químicos. Contudo, milhões de barris de petróleo leve e doce continuavam se movendo rumo a pântanos e praias do golfo do México.

As águas do golfo abaixo dos 300 metros de profundidade são uma nova fronteira ao setor petroleiro - e um dos lugares mais difíceis de se perfurar poços no mundo. Após a suave inclinação da plataforma continental, o leito marinho despenca, transformando-se em um terreno acidentado de bacias e cordilheiras, com desfiladeiros profundos, cristas oceânicas e vulcões de lama ativos. Todos os dias mais de 2 mil barris de petróleo escapam por diversas fissuras naturais no leito. Mas as reservas economicamente viáveis estão situadas em profundidades ainda maiores, muitas vezes sob camadas de sal em movimento e vulneráveis a terremotos submarinos. No fundo do mar as temperaturas estão próximas do congelamento, ao passo que nas reservas de petróleo chegam a 200ºC: são como garrafas de refrigerante quentes e sacudidas, esperando apenas que alguém abra a tampa. Bolsões de gás metano explosivo e hidratos de metano, estes últimos congelados mas instáveis, ocultam-se nos sedimentos, aumentando o risco de explosões.

Durante décadas, os custos exorbitantes da perfuração de poços em profundidade fizeram com que as plataformas de exploração fossem instaladas perto da costa. No entanto, o esgotamento dessas jazidas, o que fez o preço do barril de petróleo disparar, e as descobertas de reservas em campos de alto-mar desencadearam uma corrida global para as águas profundas. Recentes achados nos campos Tupi e Guará, no Brasil, podem tornar o país um dos maiores produtores de petróleo do mundo. O litoral de Angola é igualmente promissor.

Em 1995 o Congresso americano aprovou uma lei que incentiva empresas a prospectarem em maior profundidade. Logo uma esquadra de plataformas estava abrindo poços em todo o golfo. Novos campos tornaram-se viáveis bem a tempo de compensar o declínio da produção de petróleo na plataforma continental. Hoje, o golfo do México responde por 30% de toda a produção dos Estados Unidos, com metade desse volume vindo de poços em águas profundas (de 305 a 1 524 metros), um terço de águas ultraprofundas (mais de 1 525 metros) e o restante de águas rasas. O poço Macondo, da BP, mesmo com 1 525 metros de água e outros 3 960 metros sob o leito marinho, não era considerado tão profundo. Já foi perfurado um poço através de 3 048 metros de água e com profundidade total de 10 683 metros - recorde mundial, estabelecido em 2009 pela própria Deepwater Horizon em outro campo da BP. Segundo estimativas, as áreas profundas do golfo podem conter até 45 bilhões de barris.

Mas, enquanto a tecnologia viabilizava as perfurações, não ocorreram avanços nos métodos de prevenção e de limpeza. Desde o início do século, relatórios vêm alertando sobre o risco crescente de erupções em águas profundas, falibilidade dos sistemas de segurança e dificuldade de se interromper um vazamento - desses poços, que estão submetidos a pressões muito altas, podem jorrar até 100 mil barris de óleo por dia.
Vários poços em águas profundas não apresentam, em termos relativos, muitos problemas ao serem abertos. Mas esse não foi o caso do Macondo, perfurado pela Transocean, uma empresa baseada na Suíça e contratada pela BP.

A primeira plataforma da Transocean foi inutilizada pelo furacão Ida apenas um mês depois de entrar em atividade. A Deepwater Horizon iniciou seus esforços malfadados em fevereiro de 2010. No início de março, a sonda de perfuração ficou presa no poço. Até 20 de abril, a plataforma acumulava um atraso de seis semanas em seu cronograma - um prejuízo de meio milhão de dólares por dia para a BP. Ela havia escolhido perfurar o poço no ritmo mais rápido possível - usando um tipo conhecido como de “tubulação longa”, no qual se utilizam dutos de revestimento entre o reservatório de óleo e a cabeça do poço. Escavações assim em geral contam com duas barreiras entre o óleo e o sistema de segurança contra erupções, o BOP, instalado no leito do mar: um tampão de cimento no fundo e um vedador metálico localizado na cabeça do poço. Esse vedador ainda não estava instalado quando ocorreu a erupção.