Sunday, May 06, 2007

As origens da Pesquisa Operacional

A Pesquisa Operacional é um corpo multidisciplinar de conhecimento científico originado em aplicações militares durante a Segunda Guerra Mundial, nos Estados Unidos e Grã-Bretanha. Desde 1945 este conhecimento vem sendo aplicado com crescente sucesso a problemas industriais e comerciais. As primeiras aplicações ocorriam essencialmente em grandes companhias e até hoje, 90% das 500 maiores companhias utilizam Pesquisa Operacional . Entretanto, devido à dramática redução no custo de computadores, desde os anos 80, os métodos e ferramentas da Pesquisa Operacional são disponíveis para praticamente qualquer problema de decisão. Há muitas aplicações famosas de Pesquisa Operacional onde a sua contribuição resolveu complexos problemas de planejamento, como o projeto Apollo da Nasa (1961-1972). Nos dias de hoje, entretanto, a maior parte das aplicações de Pesquisa Operacional são em problemas decisórios de gerenciamento quotidiano. A Pesquisa Operacional rotineiramente identifica as soluções que melhoram significativamente os resultados anteriores, com relação a desempenho e otimização.

Numerosas aplicações de Pesquisa Operacional têm sido documentadas em todas as áreas de negócios: finanças, marketing, operações e logística, gerenciamento de pessoal. Aplicações em setor público incluem gerenciamento de sistemas de saúde, planejamento de transporte e controle de poluição. Aplicações também existem em operações militares, medicina e esportes. Apesar da diversidade destas áreas de aplicação, os benefícios do uso da Pesquisa Operacional tendem a ser similares em cada caso: ela encontra boas soluções para problemas muito complexos. Além disso, se por um lado o desenvolvimento e implementação de um método de Pesquisa Operacional requer um certo investimento, o período de retorno é tipicamente menor do que qualquer outro investimento.

Em termos gerais, podemos dizer que a Pesquisa Operacional consiste no uso de modelos matemáticos, estatística e algoritmos como ajudo no processo de tomada de decisões. Ela é mais freqüentemente usada para analisar problemas complexos do mundo real, tipicamente como o objetivo de melhorar ou otimizar performance. Hoje é também considerada como um dos ramos da Matemática Aplicada, sendo também uma das ferramentas básicas da engenharia industrial.

Algumas das ferramentas básicas utilizadas pela pesquisa operacional são: estatística, otimização, teoria de filas, teoria de jogos, teoria de grafos e simulação. Devido à natureza computacional destes campos, a Pesquisa Operacional está também associada à Ciência da Computação.

É interessante notar que a Pesquisa Operacional se distingue por sua habilidade em examinar e melhorar todo um sistema, em vez de concentrar-se somente em elementos específicos (embora isso também possa ser feito). Um profissional em Pesquisa Operacional supostamente deve ser capaz de determinar quais técnicas são mais apropriadas, dada a natureza do sistema, os objetivos para melhorias, limitações físicas e computacionais de tempo e espaço. Por esta e outras razões, o elemento humano da Pesquisa Operacional é vital.

Alguns exemplos de aplicações que empregam a Pesquisa Operacional são os seguintes:

* planejamento do layout de uma fábrica para o fluxo eficiente de materiais.

* construção de uma rede de telecomunicações a um baixo custo que garanta a qualidade do serviço mesmo que algumas conexões fiquem congestionadas ou danificadas;

* determinação das rotas de ônibus de modo que se possa utilizar o menor número possível, satisfazendo parâmetros mínimos de qualidade de serviço;

* planejamento do layout de um chip de computador para reduzir o tempo de manufatura (reduzindo assim o custo).

* gerenciamento do fluxo de materiais brutos e produtos em uma cadeia de fornecimento baseado em uma demanda incerta de produtos acabados.

Sociedades de Pesquisa Operacional

O IFORS ( International Federation of Operational Research Societies - http://www.ifors.org) é a organização de Pesquisa Operacional que abriga as outras do mundo. Entre estas as mais importantes são:

- INFORMS ( Institute for Operations Research and the Management Sciences -http://www.informs.org) ;

- ORSOC ( Operational Research Society - http://www.orsoc.org.uk/) ;

- EURO ( association of European Operational Research Societies - http://www.euro-online.org )

Terminologia

Quase toda bibliografia de um curso em Pesquisa Operacional está escrita na língua inglesa, de modo que é conveniente esclarecer o significado de alguns termos que irão aparecer em uma pesquisa bibliográfica. Europeus referem-se à Pesquisa Operacional por "Operational Research", enquanto que nos Estados Unidos/Canadá o termo utilizado é "Operations Research", sendo a abreviação OR universalmente usada.

Devido à sua interdisciplinaridade, há diversos termos sinônimos para a Pesquisa Operacional. Usuários da área de negócios utilizam

"Management Science" (MS), ou Ciência do Gerenciamento. Os nomes são muitas vezes combinados em OR/MS ou ORMS. engenheiros utilizam Engenharia Industrial ou Engenharia de Sistemas, educadores e administradores, Modelagem de Decisão (Decison Modeling), Ciência da Decisão, etc.

Origens da Pesquisa Operacional

A Pesquisa Operacional moderna tem sua origem na Grã-Bretanha, impulsionada pelo conflito com a Alemanha durante a Segunda Guerra Mundial (1939-1945). Embora cientistas, durante as guerras, normalmente acabavam envolvidos no desenvolvimento do harware militar (projetando melhores aviões, explosivos, motores, tanques, etc.) seu envolvimento na análise científica do uso operacional dos recursos militares jamais havia ocorrido de modo sistemático antes da WWII. Os militares simplesmente não estavam treinados para executar tais tarefas.

As primeiras equipes em Pesquisa Operacional consistiam de indivíduos provenientes de várias disciplinas diferentes: por exemplo, um grupo consistia de um físico, dois físicos-matemáticos, dois fisiologistas e um topógrafo. A contribuição que tais profissionais trouxeram para o esforço de guerra foram suas mentes cientificamente treinadas, usadas para examinar suposições, empregar lógica, explorar hipóteses, criar experimentos, coletar dados, analisar números, etc. Muitos destes indivíduos eram de um nível intelectual altíssimo (quatro deles receberam o prêmio Nobel em suas especialidades após a guerra).

No fim da guerra a Pesquisa Operacional ficou bem estabelecida nas forças armadas da Grã-Bretanha e Estados Unidos. Entretanto, na GB os integrantes das equipes de Pesquisa Operacional voltaram ao seu trabalho original de tempo de paz, de modo que a Pesquisa Operacional não se disseminou tão bem, exceto em algumas indústrias isoladas (ferro/aço e carvão). Nos Estados Unidos, por outro lado, a Pesquisa Operacional se disseminou para as universidades onde o treinamento específico na nova disciplina se iniciou.

A equipe formada por Frederick Lanchester (engenheiro) , Patrick Blackett (físico de partículas) and Frank Yates (estatístico) esteve essencialmente ocupada com o gerenciamento de recursos escassos e tomadas de decisões associados a operações de guerra, como problemas de logística e otimização do emprego de recursos materiais e humanos no tempo e no espaço. Descrevemos a seguir alguns exemplos destas primeiras aplicações durante a II Guerra.

Sistema de Defesa Aérea da Grã-Bretanha

No início de 1936 o Ministério do Ar Britânico estabeleceu a Estação de Pesquisa de Bawdsey, na costa leste, próximo a Felixstowe, Suffolk, como centro de pesquisas de radar para a Força Aérea e o Exército. Equipamento experimental de radar foi montado com um alto grau de confiabilidade e alcances de até 100 millhas foram obtidos para detecção de aviões.

Também em 1936 foi criado o Comando de Caça de RAF, especificamente encarregado da defesa aérea da Grã-Bretanha. Ele não possuía, no entanto, qualquer avião de caça efetivo (Hurricanes e Spitfires ainda não estavam em serviço), e nenhum dado de radar fazia parte do então rudimentar sistema de controle e alarme.

O primeiro dos três grandes exercícios de defesa aérea pré-guerra foi realizado no verão de 1937. A estação experimental de radar em Bawdsey foi posta em operação e as informações dela obtidas passaram a alimentar o sistema de controle e alarme de defesa aérea. Do ponto de vista de alarme os resultados foram desde o início muito encorajadores, mas a informação de monitoramento obtida pelo radar, após filtragem e transmissão através da rede de controle, não era muito satisfatório.

Em julho de 1938 um segundo grande exercício de defesa aérea foi realizado. Quatro estações de radar adicionais foram instaladas ao longo da costa e era esperado que a partir desse momento a Grã-Bretanha teria um sistema de localização e controle de aeronaves, com um maior alcance e efetividade. O exercício, no entanto, revelou um novo e sério problema. Ele consistia na necessidade de coordenar e correlacionar as adicionais, e freqüentemente conflitantes, informações recebidas das estações de radar adicionais. Com a iminência da guerra, ficou evidente que alguma solução nova, e talvez drástica, deveria ser tentada.

Ao término de exercício, o Superintendente da Estação de Pesquisa de Bawdsey, A. P. Rowe, anunciou que embora o exercício tenha novamente demonstrado a factibilidade técnica do sistema de radar para detectar aviões, suas capacidades operacionais ainda estavam longe do exigido. Ele portanto propôs que um programa relâmpago de pesquisa nos aspectos operacionais (em oposição aos técnicos) deveria ser iniciado imediatamente. O termo "Pesquisa Operacional" [Pesquisa em Operações (militares)] foi escolhido para denominar este novo ramo de ciência aplicada. A primeira equipe foi selecionada entre os cientistas do grupo de pesquisa de radar no mesmo dia.

No verão de 1939 a Grã-Bretanha realizou o seu último exercício aéreo pré-guerra. Ele envolveu aproximadamente 33000 homens, 1300 aviões, 110 canhões antiaéreos, 700 holofotes e 100 balões de obstrução. Este exercício mostrou uma grande melhora na operação do sistema de controle e alarme de defesa aérea. A contribuição feita pelas equipes de pesquisa operacional ficou tão aparente que o Comandante-em-Chefe do Comando de Caças da RAF (Air Chief Marshal Sir Hugh Dowding) determinou que, na iminência da guerra, elas deveriam estar anexadas ao seu QG em Stanmore. Inicialmente, a equipe foi designada "Stanmore Research Section". Em 1941 ela foi redesignada "Operational Research Section", quando o termo foi formalizado e oficialmente aceito, sendo seções similares estabelecidas em outros comandos da RAF.

Em 15 de maio de 1940, com as forças alemãs avançando rapidamente na França, a Seção de Pesquisa de Stanmore foi requisitada para analisar um pedido francês de dez esquadrões de caça adicionais (um esquadrão é formado por 12 aviões) quando as perdas estavam ocorrendo a uma taxa de aproximadamente três esquadrões a cada dois dias. A equipe preparou grafos para o primeiro-ministro Winston Churchill, baseados em um estudo das presentes perdas diárias e taxas de reposição, indicando quão rapidamente tal ação poderia esgotar a força de caças. Como resultado nenhum avião foi mandado e os que estavam em ação na França foram retirados. Esta é considerada como sendo a mais estratégica contribuição no curso da guerra feita pela Pesquisa Operacional, pois as aeronaves e pilotos salvos puderam ser disponíveis para a subseqüente e vital defesa da Grã-Bretanha.

Em outro trabalho relacionado a bombardeiros britânicos, a equipe de Blackett analisou o resultado de um relatório feito pelo Comando de Bombardeiros da RAF. Para este relatório, foram inspecionados todos os aviões que retornaram de raids sobre a Alemanha, durante um determinado período. Todos os danos causados pelas defesas aéreas alemãs foram notados e foi feita a recomendação para que blindagem adicional fosse aplicada às áreas mais danificadas. A equipe de Blackett, no entanto, fez a surpreendente recomendação de que a blindagem extra fosse colocada nas áreas onde não havia qualquer dano. Eles haviam suspeitado que o relatório não fora imparcial, pois incluía somente aviões que haviam retornado de suas missões. As áreas intocadas provavelmente eram vitais e, se atingidas, resultariam na perda do avião.

Guerra anti-submarinos

Em 1941 uma Seção de Pesquisa Operacional (ORS) foi estabelecida no Comando Costeiro, que executou alguns dos mais conhecidos trabalhos de Pesquisa Operacional da Segunda Guerra. A responsabilidade do Comando Costeiro consistiu, em grande parte, na coordenação de vôos solitários de longo alcance com o objetivo de avistar e atacar U-boats (U-boote - submarinos alemães) na superfície. Entre os problemas considerados pela Pesquisa Operacional estavam:

Organização de manutenção e inspeção de vôo

O problema aqui era de que em um esquadrão cada aeronave, em um ciclo de 350 horas de vôo, requeria em termos de manutenção de rotina 7 inspeções menores (durando de 2 a 5 dias cada) e uma inspeção maior (durando 14 dias). Como então deveriam ser organizados vôos e manutenção de modo a otimizar as possibilidades do esquadrão ? O ORS decidiu que o procedimento em vigor, onde uma tripulação tinha seu próprio avião, sendo este avião mantido por uma dedicada equipe de terra, era ineficiente, pois significava que quando o avião estava em ação a equipe de terra permanecia inativa. Eles propuseram um sistema de garagem central onde os aviões eram mandados para manutenção quando necessário e cada tripulação utilizava um diferente avião quando necessário. A vantagem óbvia deste sistema era que o número de horas voadas aumentaria. A desvantagem era de que haveria uma baixa no moral causada pela perda dos laços entre a tripulação e a equipe de manutenção de terra. Em um teste de 5 meses, quando os vôos foram organizados pela ORS, as horas operacionais de vôo diárias aumentaram em 61% com relação ao sistema anterior, utilizando o mesmo número de aviões. O sistema foi aceito e implementado.

Comparação do tipo de aeronaves

Aqui o problema era de decidir, para um tipo particular de operação, os méritos relativos de diferentes tipos de aviões em termos de fatores como: horas voadas por homem-manutenção por mês, letalidade da carga, duração de missão, chance de avistar um U-boat, etc.

Melhoria na probabilidade de atacar e destruir um U-boat

A experiência mostrava que eram necessários em torno de 170 homens-hora (manutenção e equipes de terra) para produzir uma hora de vôo operacional e mais de 200 horas de vôo para produzir um ataque a um U-boat emergido. Portanto, ao menos 34000 homens-hora de esforço eram necessários somente para atacar um U-boat. No começo de 1941 a probabilidade ataque/destruição era de 2 a 3%, ou seja, entre 1.1 e 1.7 milhões de homens-hora eram necessários para destruir um U-boat. Nesta área a maior contribuição foi dada pela Pesquisa Operacional no Comando Costeiro, de modo que esta ação será examinada em maior detalhe (a questão do U-boat ser atacado e danificado será desconsiderada).

Claramente, no cálculo acima, o ela fraco estava na probabilidade ataque/destruição, sendo o fator essencial a ser melhorado.

A principal arma de ataque contra um U-boat emergido eram cargas de profundidade lançadas em uma barra (tipicamente 6 cargas de 110Kg) em uma linha reta ao longo da direção de vôo do avião. Depois de atingir a água uma carga de profundidade afunda, enquanto se desloca para frente. Depois de um tempo pré-determinado, ou depois de atingir certa profundidade, ela explode e qualquer U-boat dentro de uma certa distância é letalmente danificado. Seis variáveis foram consideradas como importantes na probabilidade de destruição:

- profundidade (ou tempo) para a detonação da carga,

- raio letal,

- erros na pontaria ao baixar a barra,

- orientação da barra com relação ao U-boat,

- espaçamento entre sucessivas cargas na barra,

- miras de bomba para baixas altitudes.

Cada fator pode ser considerado separadamente:

Profundidade (tempo) para explosão da carga de profundidade.

Nos primeiros dois anos da guerra as cargas de profundidade eram quase sempre programadas para explodir a uma profundidade de 30/45 m . Análise de relatos de pilotos pela ORS mostrou que em 40% dos ataques o U-boat era ainda visível, ou havia submergido a menos de 15 segundos (estes submarinos eram os com que poderiam ser destruídos com maior probabilidade, pois sua posição era exatamente conhecida). Como o raio letal da carga de profundidade era aproximadamente 5 a 6 m , era claro que detonações a menores profundidades eram necessárias. Explosões a uma profundidade de 15 m foram então iniciadas e logo a 10 e 8 m, quando novos fusos tornaram-se disponíveis.

Raio letal

Como foi mencionado anteriormente, a carga de profundidade padrão de 110 Kg tinha supostamente um raio letal de 5 a 6m somente. Para aumentar este raio um explosivo químico mais poderoso era necessário (por exemplo, um aumento do raio letal em 20% implicaria um aumento de volume da carga em 72%). Portanto, o melhor explosivo químico disponível foi introduzido.

Argumentou-se que como uma carga de 110Kg tinha um raio letal muito pequeno, uma carga maior, de 270Kg), foi recomendada pelo Comando Aéreo. Por outro lado, o ORS sugeriu cargas de 45 Kg, pensando em aumentar a efetividade através de várias pequenas explosões em vez de poucas grandes. De fato, nenhuma das alternativas foi escolhida devido ao crescente sucesso das cargas de 110 Kg.

Erros na pontaria ao baixar a barra

No final de 1942 tornou-se claro que um número excessivo de pilotos relatavam terem danificado um U-boat sem tê-lo afundado. Ou as afirmações eram excessivamente otimistas (a visão do ORS) ou o raio letal de uma carga de profundidade era muito menor do que se acreditava (a visão do Comando Aéreo). Para resolver a questão câmeras foram instaladas para gravar os ataques a U-boats. A análise de 16 ataques indicou que o ORS estava certo. Essa análise também mostrou que os pilotos estavam seguindo instruções táticas e mirando adiante dos U-boats, para levar em conta seu deslocamento durante a queda da bomba. Entretanto, a análise também revelou que se eles não houvessem usado tal procedimento, o sucesso seria 50% maior. Os pilotos foram então instruídos a não mirar adiante.

Orientação da barra com relação ao U-boat

Aqui a questão era decidir sobre ângulo horizontal de ataque ao submarino. Nenhuma resposta definida foi obtida até 1944, quando foi concluído que os ataques ao longo da trajetória eram mais acurados (provavelmente devido ao fato do piloto poder usar o rastro do U-boat para alinhar o avião).

Espaçamento entre sucessivas cargas de profundidade na barra

Originalmente este espaçamento era de 12m. A ORS calculou que um aumento para 33m aumentaria a taxa de sucessos em 35% e tal foi feito.

Miras de bomba para baixa altitude

Na maior parte da guerra todos os ataques de baixa altitude a U-boats foram feitos por pilotos ajustando a posição e soltando as bombas, com base na sua pura habilidade. Embora os pilotos e o Comando Aéreo acreditassem que esse procedimento era acurado, a evidência fotográfica mostrou o contrário, e a ORS requisitou miras (ópticas) de bomba. No final de 1943 uma mira de bomba de baixa altitude passou a ser disponível e as taxas de sucesso por ataque aumentaram em 35%.

O efeito geral das medidas descritas acima foi que, em 1945, a probabilidade de destruição por ataque a U-boats havia se elevado a 40% (ela começou em 2-3%).

Organização de Comboios

A foto abaixo mostra navios mercantes em um comboio, próximo à costa britânica em 1940.

O sistema de comboios foi introduzido pelos britânicos de modo a reduzir afundamentos causados por u-boats. Embora fosse consenso que navios de guerra deveriam acompanhar os navios cargueiros, não era claro que os comboios deviam ser grandes ou pequenos. Comboios viajavam na velocidade do seu membro mais lento, de modo que pequenos comboios em geral eram mais rápidos. Também argumentou-se que pequenos comboios seriam mais difíceis de serem detectados por U-boats. Por outro lado, grandes comboios podiam empregar mais navios de guerra contra um atacante e o perímetro do comboio protegido pelas corvetas e destróiers não aumentava em proporção com o número de navios de carga dentro do perímetro. A equipe de Blackett mostrou que

* comboios grandes eram mais eficientes;

* a probabilidade de detecção por U-boats não era estatisticamente correlacionada com o tamanho do comboio;

* comboios lentos estavam sob um grande risco, embora grandes comboios fossem preferidos.

A Pesquisa Operacional é a representação de sistemas do mundo real através de modelos matemáticos, junto com o uso de métodos quantitativos (algoritmos) para resolver tais modelos, com o objetivo de optimizar.

Podemos também definir um modelo matemático em Pesquisa Operacional como consistindo de:

- Variáveis de decisão, que são as incógnitas a serem determinadas pela solução para o modelo.

- Restrições que representam as limitações físicas do problema.

- Uma função objetivo.

- Uma solução (ou solução ótima) para o modelo e a identificação de um conjunto de valores de variáveis que são factíveis (ou seja, que satisfazem todas as restrições) e que conduzem a um valor ótimo da função de objetivo.

Em termos gerais podemos considerar a Pesquisa Operacional como a aplicação do método científico à Teoria das Decisões. Inerente à pesquisa operacional está a seguinte filosofia:

- decisões devem ser tomadas;

- a utilização de um método quantitativo (explícito, articulado) conduzirá, na média, a melhores decisões do que aquelas tomadas utilizando métodos não-quantitativos.

De fato, diz-se que a Pesquisa Operacional, embora imperfeita, oferece o melhor método para se fazer uma particular decisão em muitos casos (o que não significa afirmar que a Pesquisa Operacional produzirá a decisão certa).

Tuesday, May 01, 2007

Aflotoxinas e micotoxinas

Um dos problemas mais graves dos países subdesenvolvidos é o relacionado com a contaminação de alimentos por substâncias chamadas aflotoxinas que é uma variedade de uma família de substâncias tóxicas produzidas por fungos, denominada micotoxinas. Já foram classificadas pelo menos 100 espécies de fungos que produzem micotoxinas.

Os fungos que produzem as micotoxinas geralmente se desenvolvem em alimentos estocados em locais com condições de temperatura e umidade inadequados, com pouca ventilação. Os fungos, no entanto, também se desenvolvem em cuturas atacadas por pragas, ou cujos grãos forma muito danificados na colheita.Por serem quimicamente muito estáveis não é muito fácil eliminá-las através de controle de temperatura ou por aplicação de outros produtos químicos.

Micotoxinas são mais comumente associadas a amendoim, milho, arroz, sementes de algodão, frutas secas, nozes, temperos, óleos vegetais crus, sementes de cacau, assim como leite e laticínios provenientes de gado que ingeriu ração contaminada. Estudos em animais mostram que as aflotoxinas estão entre os mais potentes carcinogênicos do fígado conhecidos.

O câncer de fígado é um importante problema de saúde pública mundial, sendo o quinto mais comum no mundo, causando em média 500 mil mortes por ano. As taxas de incidência em países subdesenvolvidos variam entre 2 a 10 vezes as dos países desenvolvidos. 76% dos casos são registrados na Ásia. Os fatores de risco mais importantes para o câncer de fígado são a exposição aos vírus das hepatites B e C, assim como o consumo de aflotoxinas. No entanto, não há dados suficientemente precisos e consistentes que permitam o estabelecimento de padrões mundiais. Eles variam muito de um país a outro. Por exemplo, no Canadá e Estados Unidos, a quantidade máxima de aflotoxinas em alimentos prontos para o consumo é de 20 partes por bilhão. França e Holanda estabeleceram 4 ppb, enquanto que na Índia é 30 ppb.

Embora a correlação entre o consumo de aflotoxina e câncer no fígado, para indivíduos saudáveis seja desconhecida, estudos da Organização Mundial de Saúde têm mostrado que o risco de câncer de fígado devido à exposição à aflotoxina aumenta aproximadamente 30 vezes em indivíduos portadores do vírus da hepatite B. Isso implica que efeitos consideráveis na redução do câncer de fígado seriam obtidos através do estabelecimento de níveis mínimos de aflotoxina admissíveis em alimentos. No entanto, tal política não pode ser facilmente implementada. Os altos índices de contaminação de aflotoxina, assim como uma incidência de exposição à hepatite B ocorrem justamente em regiões da África e Ásia onde há escassez de comida. Alguma redução na exposição a micotixinas poderia ser obtida através da melhoria dos métodos de plantio e estocagem, adotando-se práticas modernas, incluindo pesticidas, e adsorventes químicos. No entanto, isso seria demasiado caro para economias tão pobres. A Organização Mundial de Saúde concluiu que o melhor método para reduzir o alto índice de câncer em países subdesenvolvidos é o estabelecimento de programas de vacina contra hepatite B. Exemplos de sucesso desse programa em países com alta exposição à aflotoxina ocorreram na Coreia e em Taiwan.

Para a avicultura os efeitos das aflotoxinas mais conhecido do que em humanos, devido à sua relevância econômica imediata. Na criação de frangos, a contaminação de ração com aflotoxinas está intimamente relacionadas à imunossupressão, levando a baixas respostas vacinais e ao surgimento de doenças diversas. Além disso, elas provocam doenças hepáticas como infiltração gordurosa e manchas hemorrágicas em músculos como coxa e peito. Além disso, em formas mais amenas causam perda do ganho de peso, retardo na maturação sexual e a diminuição na produção de ovos. Por tal razão, o controle de qualidade da ração animal em avicultura industrial tem se tornado mais rigoroso nos últimos anos, embora o problema ainda seja comum no Brasil. Além de perdas econômicas significativas ao avicultor, a ingestão de ovos e de carne de frango contaminados também afeta a saúde humana. Em frangos contaminados, os estudos revelaram que as micotoxinas encontram-se presentes principalmente no sangue e no fígado.

Uma solução para o problema das micotoxinas nos grãos ou na ração animal propriamente dita, pode ser encontrada na pesquisa de produtos adsorventes, que inibem a ação tóxica dessas substâncias. Já são comercializados produtos que são empregados em grãos contaminados. Tais medidas, entretanto são muito caras, elevando bastante o preço do produto final. As melhores alternativas consistem na prática de uma agricultura e avicultura que minimize o aparecimento de micotoxinas nos grãos e na ração animal .

Informações adicionais:


Saturday, December 03, 2005

O surgimento dos grandes dinossauros

Os dinossauros foram a forma de vida vertebrada dominante na Terra durante aproximadamente 165 milhões de anos, um período notável para uma classe de animais. O assunto sempre foi de grande interesse popular, especialmente porque os vestígios da sua existência dão realidade aos mitos de monstros e dragões. No entanto, o assunto floresceu na mídia de forma intensa a partir dos anos 80. Uma das razões para tal interesse foi a discussão que se gerou na comunidade científica de paleontólogos, sobre a causa da extinção de todos os dinossauros, há 65 milhões de anos atrás.

Hoje é um fato aceito pela maioria dos paleontólogos que a causa para a extinção dos dinossauros foi o impacto de um asteróide, marcando o fim do período Cretáceo, há 65 milhões de anos atrás. Uma nova teoria, ainda bastante debatida, consiste no estabelecimento de uma simetria de fatos: ou seja, o aparecimento dos grandes dinossauros também teria sido causado pelo impacto de um asteróide.

Os fósseis mais antigos de dinossauros têm 230 milhões de anos, sugerindo que eles apareceram aproximadamente nessa época, durante o período geológico conhecido como Triássico. Durante tal período os dinossauros eram relativamente pequenos e dividiam o planeta com vários outros tipos de répteis.

Foi somente a partir do período geológico denominado Jurássico, que se iniciou há 202 milhões de anos atrás, que os dinossauros cresceram de tamanho e dominaram a paisagem diurna da Terra, tornando-se os legendários e conhecidos monstros. O grande carnívoro alossauro é desta época. Tal surgimento de grandes dinossauros ocorreu em um intervalo de tempo de somente milhares de anos, ou seja, num piscar de olhos na escala geológica, e não um processo gradativo.

Alguns fatos corroboraram tal teorial. Esqueletos de dinossauros são raros. Suas pegadas, no entanto, são surpreendentemente abundantes, e seus tamanhos são uma boa indicação das dimensões dos animais que as produziram. Pesquisadores analisaram 18 tipos de pegadas de dinossauros. Cada uma é associada a um tipo geral, não necessariamente a uma espécie. Portanto, elas contam a história de cada grupo de animais, mesmo não havendo qualquer vestígio de seus esqueletos.

Dos 18 grupos de dinossauros que produziram as pegadas, 5 desapareceram antes do início do Jurássico, 4 passaram diretamente ao Jurássico e 6 desapareceram exatamente na fronteira entre os períodos Triássico e Jurássico e 3, que incluem grandes dinossauros, surgiram repentinamente no início do Jurássico. Tal descontinuidade na fronteira entre os dois períodos é bastante sugestiva, indicando a ocorrência de um evento global na Terra, possivelmente um impacto com um asteróide. Tal possibilidade está ainda sendo investigada.

Anti-Matéria

A teoria da mecânica quântica descreve os fenômenos envolvendo átomos e partículas elementares, ou seja a física do mundo microscópico. Ela foi concebida começo dos anos 20 por uma geração de jovens e brilhantes físicos com menos de 25 anos. A sua forma mais conhecida hoje nos  textos didáticos foi criada em 1926 por Erwin Schrödinger, essencialmente para poder explicar, entre outras coisas, por quê um elétron pode orbitar um próton de modo estável, formando um átomo de hidrogênio. Por ter uma consistência lógica muito sólida e por poder explicar virtualmente todos os fenômenos quânticos até então conhecidos de forma convincente, sendo capaz até de prever novos, tal teoria logo teve aceitação na comunidade dos físicos.


Erwin Schrodinger (1887-1961)

Apesar do seu sucesso, a teoria quântica não era, no entanto, compatível com a teoria de Einstein da relatividade especial, criada em 1905. Isso não queria dizer que a mecânica quântica de Schrödinger era errada. Simplesmente ela não poderia ser aplicada a fenômenos que envolvessem altas energias, onde as velocidades passam a ser muito altas. Tal incongruência teórica começou a ser resolvida por Dirac, que em 1928 propôs uma teoria quântica relativística, capaz de descrever de forma consistente o movimento de elétrons em campos elétricos e magnéticos. Essa era a primeira aplicação da teoria da relatividade de Einstein na física quântica. A teoria de Dirac de 1928 conduziu a surpreendentes predições: além de descrever elétrons, a teoria parecia exigir a existência de um outro tipo de partícula, com massa idêntica à do elétron, mas com carga elétrica positiva, em vez de negativa. Tal partícula, que foi chamada pósitron, é a anti-partícula do elétron, e foi o primeiro exemplo de anti-matéria.  A confirmação experimental dessa fantástica teoria deu-se em 1931 com a descoberta do pósitron. A predição de Dirac aplica-se não somente ao elétron, mas também a todos os constituintes da matéria. Ou seja, cada partícula tem sua anti-partícula. Suas massas são iguais, mas certas características como carga e spin têm seus sinais trocados. Outra propriedade prevista por Dirac e confirmada experimentalmente é que quando uma partícula encontra sua anti-partícula elas se desintegram, transformando-se em um pulso de radiação eletromagnética. Teoricamente não há diferença entre partículas e anti-partículas, no que diz respeito à teoria que as descrevem. Mas há uma diferença fundamental quanto à sua ocorrência no universo à nossa volta. Ele é feito todo de matéria, e a anti-matéria criada em laboratórios logo se desintegra ao se chocar com matéria. Modernas teorias de teoria de evolução do universo exigem que no início dos tempos matéria e anti-matéria existiam em quantidades iguais. Um dos grandes mistérios da física é por quê ocorreu esse desequilíbrio.


Paul Adrien Maurice Dirac (1902-1984)

O físico Richard Feynman inventou o seguinte conto para ilustrar o conceito de anti-matéria.: vamos supor que os cientistas da Terra estabeleceram contato com um ser extra-terreno. Utilizando rádio, eles trocam informações sobre os seus mundos. Eles descrevem, por exemplo o formato do corpo do ser humano, suas dimensões, massa, longevidade, etc. Padrões de comprimento, tempo e massa podem ser definidos de modo universal através de partículas elementares da física, utilizando comprimentos de ondas, tempos de decaimentos radioativos, massa atômica.
Um problema surge quando o cientista tenta explicar que o coração humano fica no lado esquerdo do peito. Os conceitos de esquerda e direita são convenções assumidas na nossa linguagem. Como transmitir essa mensagem essa definição ? Uma solução poderia consistir na observação de neutrinos
Neutrinos, partículas aparentemente sem massa e sem carga, produzidas em certas reações de decaimento, apresentam um momento magnético de spin que poderíamos chamar de esquerdo. Anti-neutrinos, no entanto, possuem spin direito. É como se tivéssemos parafusos universais diferentes, com rosca esquerda e direita. Assim, bastaria que o extraterreno observasse um neutrino para entender o que é esquerdo. Assim, os dois marcam um encontro. Eles então combinam que vão estender a mão direita um ao outro. O terráqueo tem no entanto a seguinte instrução: caso o extraterrestre estender sua mão esquerda, afastar-se imediatamente, pois nesse casso o extraterrestre é feito de anti-matéria.


Richard Feynman (1918-1988)








A origem da Lua

Acredita-se que a terra tenha sido formada há aproximadamente 5,5 bilhões de anos atrás, através da aglomeração de grandes rochas resultantes da formação do sol. Então, há 4,5 bilhões de anos atrás, segundo uma teoria, um corpo do tamanho de marte chocou-se com a nascente terra, espalhando material suficiente para que a lua pudesse ser formada. Tal hipótese foi testada através de simulações computacionais, com resultados que tendem a comprovar sua veracidade. Além disso, um choque da terra com um grande asteróide seria capaz de desviar o eixo de rotação da terra com relação ao plano de órbita da lua, fato hoje observado.

Depois desse choque a calma então prevaleceu nessa parte do sistema solar por aproximadamente 600 milhões de anos. Análises feitas em rochas lunares trazidas pelos astronautas da missão Apollo sugeriram que há 3.9 bilhões atrás um cataclisma ocorreu: uma chuva de grandes corpos, do tamanho de asteróides, atingiu a terra, a lua, e provavelmente todos os planetas dessa região interna do sistema solar.

Tal teoria que ainda hoje recebe críticas, tem ganhado força com a análise de rochas lunares provenientes de crateras do lado oculto da lua e também de rochas de 12 crateras diferentes, pelas missões norte-americas e soviéticas. Nenhuma delas era mais antiga do que 3,9 milhões de anos, indicando que o evento foi suficiente intenso para apagar os traços de impactos anteriores. A fonte do cataclisma é desconhecida, embora haja teorias baseadas em simulações computacionais, sugerindo que essa chuva de rochas foi ocorreu devida à formação tardia dos planetas Netuno e Urano.

Através de um pequeno binóculo já é possível a observação das crateras lunares. Os mesmos impactos ocorreram na terra, embora poucas sejam hoje visíveis, em parte pelo efeito de proteção da atmosfera que desintegra muitos meteoritos antes deles atingirem a superfície e também devido à erosão causada pelos ventos e chuvas. Na lua pequenas crateras de milhões de anos são visíveis porque a falta de atmosfera e água faz com que a erosão seja quase inexistente. Ou seja, o mundo que os astronautas visitaram nos anos 70 é praticamente o mesmo daquele do tempo em que a vida começou a aparecer na terra, há 3 bilhões de anos atrás.

Por essa razão o estudo da lua e de suas crateras não é importante por si só, mas também para elucidar os eventos que aconteceram em todo sistema solar, desde a sua formação, há cerca de 5,5 milhões de anos atrás. Um conhecimento detalhado das datas do impactos que causaram as crateras lunares, poderiam descrever eventos cósmicos que fazem parte da história do nosso planeta.

O melhor método para se conhecer a data de um impacto lunar seria ir lá e colher amostras estatisticamente distribuídas e fazer as datações. No entanto, não temos acesso fácil à lua no presente momento. Em 1969, na época quando o homem pisou na lua pela primeira vez, acreditava-se que pelo ano 2000 já teríamos lá algumas colônias. Não estamos nem perto disso. As 6 missões Apollo e as três russas, terminaram em 1972, trazendo amostras de rochas de somente 9 pontos distintos. Mais algumas rochas lunares que foram ejetadas após os impactos foram encontradas mais recentemente. Pouco se fez desde então, exceto estudar mais detalhadamente as rochas disponíveis.

Há um pequeno efeito de erosão lunar, que nos permite ao menos ter uma idéia da idade de crateras lunares. Os impactos produzem raios, que são rastros de pó fino formados durante a explosão, que se estendem por muitos quilômetros sobre a superfície. Tais raios são associados a crateras recentes, como aquela vista na lua através de binóculos, chamada Giordano Bruno. Enquanto que as crateras se mantêm inalteradas por bilhões de anos, os raios não, pois à medida que o tempo passa poeira fina vinda do espaço, micrometeoritos, acaba recobrindo os raios, fazendo-os desaparecer. Especula-se que talvez a cratera Giordano Bruno tenha sido decorrente de um aparente impacto ocorrido na lua em 1178 observado por cinco monges ingleses e descrito na crônica de Gervase de Canterbury. Uma evidência favorável a tal hipótese é dada pela observação do vibrações da superfície lunar.

Quando um meteorito muito grande ou veloz se choca com a lua, esta responde com vibrações. Calcula-se que tais oscilações não cessam antes de uns oitocentos anos, para um impacto do tipo que estamos considerando. Esses estremecimentos da superfícies podem ser medidos através de raios laser mandados da terra e refletidos em espelhos deixados na lua pelos astronautas da missão Apollo. A medição do tempo de ida e volta dos raios nos dá com excelente a distância da fonte do laser ao espelho. As medições indicam que a superfície lunar vibra com um período de cerca de três anos e amplitude de três metros, consistente com a idéia de que a cratera Giordano Bruno tenha menos de 1000 anos de idade.

Friday, December 02, 2005

Vida inteligente no universo

Uma das famosas frases do escritor inglês Arthur C. Clarke é : "Toda tecnologia suficientemente avançada é indistinguível de mágica." Uma adaptação interessante para tal idéia é: "Todo ser extra-terrestre suficientemente avançado é indistinguível de Deus".
Um dos programas de busca se inteligência extraterrena mais conhecidos é o chamado seti at home, que utiliza os computadores de usuários da internet do mundo inteiro, para fazer cálculos de análise de sinais recebidos pelo grande radio-telescópio de Arecibo, em Porto Rico. Até agora, apesar de haver vários sinais interessantes sendo analisados, nenhuma conclusão definitiva foi obtida.

Qualquer alternativa sobre a questão da existência ou não de inteligências extraterrenas no universo seria assustadora. A prova da existência de inteligências muito superiores à nossa iria mudar nossa concepção do lugar do homem no universo, colocando-nos num lugar muito mais insignificante do que aquele que já nos havia posto Copérnico.  Uma prova da não existência de outras inteligências no universo, além da humana, seria ainda mais assustadora, pois além de nos colocar numa posição de tremenda solidão cósmica, nos daria uma responsabilidade para a preservação da vida, que talvez nãosaibamos como assumir.

Sobre a questão da existência ou não de ETs, o famoso físico italiano Enrico Fermi, opinou da seguinte forma: seres extraterrenos inteligentes não existem, ao menos na nossa galáxia.
Se existissem, já teriam tido tempo suficiente para lançar-se ao espaço e colonizar toda a galáxia. Nós mesmos, com somente 300 anos de ciência moderna já começamos a exploração espacial. Como os ETs não estão entre nós, argumentou Fermi, eles não existem.

O cientista computacional belga Hugo de Garis tem outro argumento: seres extraterrestres são abundantes no universo. Já tendo passado de suas fases biológicas, são agora máquinas nanotecnológicas ou formas de energia super-inteligentes e não tem interesse em se comunicar conosco, seres quase infinitamente inferiores. Seriam deuses desinteressados de nós.

Thursday, December 01, 2005

O equilíbrio instável da vida

Copérnico, no século XV, afirmou que a Terra não era o centro do universo, sendo na verdade mais um planeta a girar em torno do Sol. Isso foi somente o começo de uma grande revolução, a ser levada adiante pela ciência moderna, que começou a derrubar o homem de seu pedestal de senhor do universo. Foi o início do fim do chamado antropocentrismo. Hoje sabemos que o sol é uma estrela média, apenas uma das aproximadamente 100 bilhões de estrelas que formam esse sistema espiral que forma a nossa galáxia, chamada Via Láctea. Para aumentar ainda mais nossa insignificância, há pelo menos mais 100 bilhões de galáxias, somente no nosso universo visível.
Apesar dessa aparente insignificância, nós humanos não conhecemos efetivamente nenhum outro mundo tal como o nosso. Sem dúvida não ocupamos um lugar tão ordinário no cosmos. Nosso planeta está localizado numa órbita estável a uma distância perfeita do sol, de modo que a matéria orgânica, tão sensível a temperaturas extremas possa subsistir. Nosso sol também é uma estrela relativamente perfeita, pelo fato de ser solitária e estável.

Mesmo ter planetas não é a regra: observações mostram que somente 3% das estrelas do tipo do sol possuem planetas. Aparentemente uma série de felizes coincidências faz possível a nossa existência. De fato, a tranqüilidade do nosso mundo é uma exceção e não a regra no cosmos. Não somente o planeta Terra possui uma posição privilegiada no sistema solar, mas tudo indica que também o nosso Sol está numa localização especial na Via Láctea. Astrônomos definem hoje o que se chama de zona habitável da galáxia, como sendo um anel em torno do núcleo, no qual planetas habitáveis poderiam existir. Estrelas situadas em uma região mais afastada do núcleo da galáxia não podem ter planetas , pois elas contêm poucos metais. Mais perto do núcleo, as estrelas até poderiam gerar planetas com freqüência, por terem mais metais. No entanto, a chance de choque de estrelas é maior e grande parte delas não leva uma vida solitária, e sim possuem companheiras.

Sistemas de estelares duplos, triplos ou múltiplos não são adequados para a vida num planeta . Sua órbita seria instável e caótica, sujeita a radiações que emanam da interação entre elas. Um planeta que orbitasse um sol mais próximo ao núcleo da Via Láctea estaria sujeito também às intensas radiações resultantes de violentas explosões de supernovas e também aos repentinos surtos de radiação gama, cuja origem exata ainda é desconhecida. Se o Sol estivesse localizado mais próximo ao núcleo de nossa galáxia, a Terra estaria sujeita a uma grande freqüência de choques com cometas, e instabilidades de órbita, e aos efeitos do grande buraco negro que está no centro. Embora as observações indiquem que ele esteja relativamente quieto, provavelmente por já haver devorado boa parte da matéria que o circundava, de tempos em tempos ele se desperta quando engole uma estrela. Ao cair no buraco negro do centro galáctico, a matéria é acelerada a velocidades altíssimas, o que gera jatos de radiação que poderiam pulverizar ou esterilizar sistemas planetários mesmo distantes.
Nossa Via-Láctea também é privilegiada para nós. Tal sossego e estabilidade, necessários para o desenvolvimento da vida, só são possíveis em galáxias do tipo espiral, onde o movimento das estrelas se dá de forma harmônica de ordenada. Tal paz poderá não ser duradoura. Em aproximadamente três bilhões de anos a galáxia Andrômeda estará se encontrando com a Via Láctea, o que poderá deslocar as estrelas de suas órbitas e também dar ignição ao buraco negro central, com desastrosas conseqüências para a vida.

Tuesday, November 29, 2005

Ciência para cérebros, corações e espíritos

Foi com grande satisfação que vi nas bancas de todo Brasil os DVDs da famosa série de Carl Sagan, Cosmos, produzida em 1979 pela PBS e remasterizada em 2000. Devem aparecer 7 DVDs contendo 13 episódios de 1h cada. Apesar do formato do documentário ter influenciado muito os que se fazem hoje, Cosmos apresenta aspectos únicos. Carl Sagan faz uma apresentação melodramática da ciência seguindo a filosofia de um programa dedicado a “cérebros, corações e espíritos”. Felizmente os programas não são dublados (o espírito do programa seria totalmente quebrado com Carl Sagan tendo a voz do Scooby Doo ou Alf) e o inglês de terminações longas de Sagan pode ser apreciado. O ritmo do programa é lento, Sagan aparece pensando e refletindo sobre o que foi mostrado, a música acompanha. Apesar da idade, o programa continua atual, com poucas atualizações a serem feitas, o que denota a excelente qualidade científica da produção. Em vez de somente preocupar-se com efeitos especiais o programa se concentra em idéias, em como o drama da ciência se desenrolou ao longo da história da humanidade. Um espectador suficientemente sensível poderia chorar com a descrição da destruição da biblioteca de Alexandria, construída ao longo de vários séculos utilizando, entre outros, o recurso do que hoje seria chamado de “pirataria” do conhecimento.

Quando morreu de câncer em dezembro de 1996, aos 62 anos, Carl Sagan era provavelmente o astrônomo mais conhecido no mundo. A sinergia da indústria de best-sellers e programas televisivos com os talentos de Sagan transformaram-no num superstar científico. Ele foi também um pesquisador e professor que ajudou a criar duas novas ciências multidisciplinares: a ciência planetária e a exobiologia (também chamada astrobiologia). Nesses campos ele percorreu diversos aspectos da ciência, entre eles a origem da vida, a busca por inteligências extraterrestres e os possíveis desastres climáticos, como o "inverno nuclear", que poderiam fazer desaparecer nossa civilização.

O entusiasmo e a celebridade incomum de Sagan fez com que ele pudesse despertar o interesse do público na ciência, ao mesmo tempo que combatia a pseudociência, o charlatanismo e o irracionalismo, tão em modo na cultura popular urbana. Ele costumava afirmar que a ciência era muito mais fascinante e estranha do que a nossa imaginação jamais poderia conceber. Muita falta nos faz Sagan agora quando o criacionismo e sua nova versão chamada “intelligent design” atacam novamente com força redobrada, sob o escudo de uma forma de pós-modernismo. .

Um dos trabalhos mais conhecidos de Carl Sagan foi seu romance " Contato" , escrito em 1985 e levado às telas em 1997 no famoso filme do mesmo nome em que Jodie Foster faz o papel de uma astrônoma que acabou descobrindo sinais extraterrestres. Apesar de especulativo, o livro é baseado em eventos verossímeis, incluindo o impacto psicológico que um sinal extraterrestre teria na nossa civilização. Sua preocupação com a fidelidade à física levou-o a pedir ao seu colega Kip Thorne a elaboração um modelo físico de máquina do tempo, um dispositivo que aparece em seu romance.

A personalidade de Carl Sagan foi sempre bastante controversa no seu próprio meio. Ele foi muito criticado por seus colegas astrônomos por fazer especulações em áreas nas quais ele não era um especialista. Seus defensores podem afirmar que um divulgador de ciência inevitavelmente irá falar sobre temas que não são sua especialidade. Possivelmente uma das causas para a grande quantidade de críticas que recebeu de seus colegas era possivelmente inveja. É comum que a mídia propague a idéia de que um grande divulgador científico é também um dos mais proeminentes pesquisadores de sua área, de modo que muitos astrônomos profissionais de grande produção científica podem ter se sentido injustiçados. O sentimento de ciúmes científico contra Sagan se tornou tão proeminente que ele chegou a ser barrado de fazer parte da Academia Nacional de Ciências. Mesmo sua nominação para uma homenagem póstuma encontrou obstáculos.

Certamente Sagan dedicou mais tempo à divulgação do que à pesquisa, mas seu papel foi também fundamental para o programa de exploração espacial norte-americano. Sem ele, provavelmente o programa das sondas espaciais Pioneer e Voyager, enviadas para os confins do nosso sistema solar, não teriam tido a divulgação que tiveram entre os jornalistas e sem ela, muito menos fundos do governo. Quando as sondas espaciais Pioneer 10 e 11 foram projetadas para serem as primeiras a serem enviadas a Júpiter e Saturno, os físicos e engenheiros da Nasa descobriram que eles tinham incidentalmente criado as primeiras naves interestelares. Após passarem pelos grandes planetas elas seriam lançadas para fora do sistema solar onde vagariam pela galáxia por bilhões de anos. Algum dia elas poderiam ser encontradas por alguma civilização. Houve então a idéia de incluir uma mensagem nas naves. A Carl Sagan coube tal tarefa. Numa placa metálica foi feito um engenhoso mapa estelar, indicando nossa posição na galáxia. Para mostrar quem havia feito a placa, foram também impressas as imagens de um homem e uma mulher. Como esses humanos eram representados nus, a NASA recebeu reclamações por estarem mandando pornografia ao espaço.

Àqueles interessados num excelente tipo de divulgação científica e reflexões sobre a condição dos humanos no universo, e que não gostam de ser tratados como idiotas (como é o caso de tantos livros de divulgação atuais) recomendo os vários livros escritos por Carl Sagan, entre eles Cosmos, Pálido Ponto Azul, Contato e o póstumo Bilhões e Bilhões, lançados no Brasil, pela editora Companhia Das Letras. Além disso, recomendo a visita ao site http://www.carlsagan.com.

Energia Escura

Novidades espetaculares na física podem surgir não somente através do nascimento de uma nova teoria fundamental, como teoria de strings ou gravitação quântica. Mistérios profundos são também trazidos à tona a partir dados experimentais e observacionais que implicam na reformulação de modelos, mesmo aqueles baseados em velhas teorias. Um privilégio nosso é o de estarmos vivenciando uma idade de ouro da Cosmologia. Até agora a experiência tem confirmado espetacularmente a teoria da relatividade geral de Einstein. Embora a Cosmologia física seja hoje baseada neste paradigma, são os aperfeiçoamentos deste modelo que nos trazem realidades fantásticas. Provavelmente as mais espantosas das observações cosmológicas sejam aquelas dos anos 20 de que a Via-Láctea é somente uma galáxia entre bilhões de outras, e a de Hubble de 1929, de que o universo está em expansão. Por mais estranho que seja o conceito de um universo expansivo, tal fato era previsto num dos primeiros modelos cosmológicos relativistas, modelo de Friedmann, de 1922, baseado essencialmente nas hipóteses de homogeneidade e isotropia da matéria que o forma. O conceito da galáxia como um universo-ilha também já havia sido especulado por Kant no século XVIII. Mesmo os outros pilares observacionais do modelo cosmológico padrão, que são a abundância relativa dos elementos leves (especialmente hélio, deutério e lítio), produzidos nas primeiras reações nucleares, ocorridas entre o primeiro segundo e os primeiros minutos após o Big Bang, e a existência da radiação cósmica de fundo, descoberta em 1965 – uma espécie de afterglow do Big Bang, eram resultados já previstos por George Gamov, nos anos 40 e 50. Nesta presente fase de telescópios orbitais, um grande fluxo de informações chega todos os meses, transformando a cosmologia relativista num modelo extremamente verificável, de acordo com os mais estritos cânones que definem “boa” ciência. A grande novidade relativamente recente é aquele proveniente de dados de supernovas obtidos a partir de 1998, indicando que a expansão do universo é acelerada, indicando que cerca de 72% do conteúdo de energia do universo é proveniente de uma energia escura, capaz de gerar uma pressão negativa. Sua natureza é atualmente alvo de intensos estudos teóricos. Isso se soma ao mais antigo problema da matéria escura, associada às observações de velocidades orbitais de estrelas em galáxias e lentes gravitacionais, que deve corresponder a aproximadamente 23 % do conteúdo de matéria-energia do universo. Sua natureza é também desconhecida até o momento. A matéria-energia que conhecemos forma somente 5% por certo do conteúdo do nosso universo. Tais fatos não foram previstos teoricamente e constituem num dos maiores mistérios da física atual. Essencialmente o modelo do Big Bang inflacionário não foi alterado com a observação da expansão acelerada do universo. Somente um novo ingrediente, chamado energia escura, foi agregado.

Friday, August 26, 2005

Inteligência Artificial Quântica


Comecei a ler The Quest for the Quantum Computer (A Busca pelo Computador Quântico) por Julian Brown, e me parece que o livro é muito bom. O início descreve o quotidiano pouco usual de David Deutsch. Este brilhante físico é um exemplo do que Ashtekar se referia na frase da mensagem anterior. Nos anos 80 David Deutsch ousou tentar resolver problemas que a amioria dos físicos mais velhos e mais experientes consideravam ou muito difíceis ou simplesmente sem sentido. Uma de suas primeiras idéias foi sobre a possibilidade se construir uma mente artificial, com processos realizados a nível quântico. Eu me pergunto se tal idéia pode ser possível mesmo em princípio, uma vez que nossos próprios cérebros não podem saber ainda como eles próprios funcionam. Um modo muito convincente de explicar muitos aspectos do cérebro humano baseia-se no conceito da Sociedade de Mentes de Marvin Minsky. Um gerente não necessita saber sobre o funcionamento das engrenagens das máquinas que estão sob sua supervisão. Seria possível conceber a existência de uma mente que pudesse entender e ser consciente de si mesma em todos os níveis ?

O desenho acima foi feito por Stanislaw Lem.


Ashtekar I

Há um tipo de
arrogância inocente
quando se é jovem,
para se trabalhar
nos problemas mais difíceis

Abhay Ashtekar

Início

Quero aqui compartilhar algumas idéias e dúvidas sobre ciência, em especial Física. É mais seguro escrever aqui do que num caderno e, além disso, todos temos necessidade de mostrar-nos. Escrevendo estas linhas eu quero preservar o presente e iluminar meu passado, de modo que nem tudo será esquecido. Suponho que outras utilidades deste blog aparecerão ao longo do caminho.

O nome no endereço deste blog é uma homenagem à cidade de Vitória de Santo Antão no Pernambuco e àqueles que lutam para preservar sua memória cultural.