Papa em Cuba, Opus Dei na retranca

Por Alberto Dines em 22/09/2015 na edição 869

Francisco não é o primeiro pontífice a pisar em território cubano, é o terceiro. Mas é o primeiro desde 1959 a avistar em Havana a bandeira norte-americana tremulando ao lado da cubana. Façanha pela qual é um dos principais responsáveis, junto com o presidente Barack Obama.

A grande imprensa brasileira sempre se assumiu como católica, apostólica, romana. Com a cobertura da viagem do papa à Ilha percebe-se que, além disso, nossos jornalões exibem-se majoritariamente, sem pudor, como sectários e reacionários.

Dos três diários de referência nacional, dois deles seguem a linha inflexível da Opus Dei – “Globo” e “Estadão”. Sem forçar uma autonomia, a “Folha” procura demarcar-se sutilmente da discretíssima prelazia conservadora global, embora mantenha fortes vínculos com o seu expoente no Brasil, Yves Gandra Martins.

O esquema foi reproduzido com total transparência no último fim de semana. Os jornalões obedeceram aos mesmos critérios e preconceitos, como se editados pela mesma pessoa ou conectados por telepatia.

No domingo 20/9 (primeiro dia completo da visita pontifícia) o noticiário foi extremamente comedido, as chamadas na capa relacionadas com o assunto foram colocadas abaixo da dobra para indicar desimportância.

A “Folha” permitiu-se a liberdade de acrescentar à chamada uma foto do papa Francisco e seu anfitrião, Raul Castro, porém sem retirá-la da zona de insignificância.

Dia seguinte, segunda, 21/9, a idiossincrasia foi repetida com maior desenvoltura e visibilidade graças à presença carismática de Fidel Castro. A mesma e expressiva foto de Alex Castro (da Associated Press) foi magnificamente usada pela rebelde “Folha” no alto da capa, logo abaixo do cabeçalho. Para atender o Manual de Redação que impôs a Fidel Castro a classificação de “ditador”, agora sem poder (ou desempoderado como se adora dizer) foi recompensado com a generosa qualificação de “ex-ditador”.

No “Globo”,  a histórica imagem dos dois estadistas fixados nos interlocutores foi empurrada para a parte inferior da capa. Nada contra o papa Francisco: a implicância da Família Marinho é com o caráter conciliador, tolerante e humanitário da missão pontifícia. Acabar com o bloqueio econômico e a resquícios de Guerra Fria no continente são intenções que não merecem ser valorizadas. Podem ser vistas como “progressistas”. Com a habitual fidalguia, o monopolizador do mercado jornalístico carioca, ofereceu a Fidel o título de “Comandante” e acolheu-o piedosamente como “ex-presidente”.

Malabarismos editoriais

O sisudo “Estadão” continua oferecendo pitorescas versões de lisura jornalística: a mesma foto de Francisco & Fidel, incrivelmente reduzida, foi colada abaixo da dobra com título minimalista: “Em Cuba, papa apoia diálogo de paz colombiano.” Francisco foi lá para isso ? Acima da dobra, na parte nobre da capa, numa foto difusa da multidão, quase desfocada, onde mal se enxerga o sumo pontífice, uma faixa pede “Que Cuba se abra a todos los cubanos”.

Em matéria de audiência o “Valor Econômico” escapa da classificação de “jornalão”, mas a circulação nacional e a ausência de concorrentes colocam o diário de economia e finanças em posição destacada. Como não circula nos fins-de-semana teria sido poupado de vexames não fosse o registro obrigatório da visita do papa a Fidel Castro no domingo.

Onde publicá-la? Pela lógica jornalística o certo seria coloca-la na capa da edição da segunda-feira já que no dia seguinte, terça, Francisco seguirá para os Estados Unidos onde o aguarda intensa agenda política e econômica. Inclusive um inédito discurso perante o Congresso.

Isso nunca! O porta-voz do conservadorismo financeiro não pode prestigiar o perigoso ex-ditador comunista, ainda por cima ateu, ao lado de quem o papa Francisco parece tão respeitoso e amigável.

Como o “Valor” pertence em partes iguais aos grupos “Globo” e “Folha” que no caso parecem seguir diretivas diferenciadas, tentou-se a via salomônica. A mesma foto, agora em preto-e-branco, foi chutada para a p. A-10 acompanhada de um texto-legenda de 21 linhas.

A fina flor do empresariado nacional poderia ter sido informada com 24 horas de antecedência sobre as importantes gestões e movimentações que poderão afetar os seus negócios.

A extrema candidez e a tocante sinceridade do papa Francisco acabaram por bagunçar os dogmas, preconceitos e arranjos dos maiores grupos midiáticos nacionais. A peregrinação do pontífice em busca da conciliação e do entendimento nesta parte do mundo teve o dom mágico de escancarar as maquinações e manipulações que comprometem um processo que deveria fluir com naturalidade, independência e responsabilidade.

Link original: http://observatoriodaimprensa.com.br/diplomacia-pontificia/papa-em-cuba-opus-dei-na-retranca/

Publicado em Artigos sugeridos | Deixe um comentário

Alguns artigos interessantes de J. Leite Lopes

A Universidade de Anísio Teixeira de J. Leite Lopes

CS00500.2010_08_16_17_12_36

Ciência, Universidade e Educação Básica de J. Leite Lopes

cs00601.2010_08_24_11_45_14

Reflexões sobre a Universidade de J. Leite Lopes

Cs00785.2010_09_21_16_55_48

A Universidade na América Latina de J. Leite Lopes

CS02797.2010_08_20_15_53_41

Reflexões sobre a Universidade de J. Leite Lopes

cs03097.2010_08_20_16_03_52

Publicado em Artigos, Artigos sugeridos | Deixe um comentário

Luz síncrotron aprofunda conhecimento sobre solo brasileiro

Diego Freire | Agência FAPESP *

Os processos químicos, físicos e biológicos que controlam, em grande parte, a disponibilidade de nutrientes, o transporte de poluentes, a contaminação do ambiente e outros aspectos relacionados estão sendo mais facilmente desvendados com o auxílio da luz síncrotron – radiação eletromagnética produzida por aceleradores de partículas.

Essas e outras aplicações da radiação síncrotron em diversas áreas do conhecimento foram apresentadas durante a São Paulo School of Advanced Sciences on Recent Developments in Synchrotron Radiation – SyncLight 2015, realizada no Centro Nacional de Pesquisa em Energia e Materiais (CNPEM), de 13 a 24 de julho. O SyncLight teve apoio da FAPESP por meio do programa Escola São Paulo de Ciência Avançada (ESPCA).

De acordo com Hélio Cesar Nogueira Tolentino, pesquisador do Laboratório Nacional de Luz Síncrotron (LNLS) e coordenador da Escola que reuniu pesquisadores e estudantes de 17 países, o objetivo foi oferecer um panorama amplo das aplicações da radiação síncrotron para o avanço da ciência.

“A luz síncrotron tem importantes aplicações em áreas como física, química, biologia, geociências, medicina, engenharia e ciência dos materiais, entre outras. O SyncLight pretendeu motivar e ajudar a preparar essa nova geração de usuários dessa importante ferramenta científica para todo o potencial que ela oferece, apresentando técnicas avançadas ligadas à radiação síncrotron e discutindo seus potenciais”, disse à Agência FAPESP.

No caso das geociências, a luz síncrotron tem possibilitado o aprofundamento do conhecimento sobre o solo por melhorar nosso entendimento sobre diversos processos que ocorrem em escala microscópica, explicou Dalton Belchior Abdala, pesquisador do LNLS na área de ciências do solo.

“O desenvolvimento da agricultura brasileira será, em grande parte, um reflexo dos avanços tecnológicos obtidos pelo emprego dessas técnicas. As fronteiras do conhecimento científico em geociências nas próximas décadas serão o melhor entendimento dos processos químicos, físicos e biológicos que ocorrem em solos em seu nível mais fundamental, ou seja, o nível atômico, e a radiação síncrotron terá papel fundamental nisso.”

Abdala apresentou, na ocasião, técnicas de espectroscopia de absorção de raios X aplicadas à pesquisa em geociências, utilizadas especialmente para determinar a presença de metais em solos e que permitem entender sobre aspectos da reatividade desses elementos no ambiente.

“As pesquisas nessa área buscam compreender as reações que ocorrem nas interfaces entre os diferentes componentes de solos – uma mistura heterogênea de compostos orgânicos e inorgânicos de diferentes composições. A luz síncrotron facilita essa compreensão por permitir aos pesquisadores observar reações que ocorrem na escala dos átomos e das moléculas”, explicou.

Em função de suas características, a radiação síncrotron permite o estudo de processos biogeoquímicos e a simulação das condições de sua ocorrência na natureza. Geralmente, a utilização dessas técnicas requer o mínimo de preparação da amostra, possibilitando a observação de elementos que se encontram naturalmente em concentrações bastante diluídas no solo, e a partir disso, elaborar protocolos para, entre outros objetivos, melhorar a eficiência agronômica de materiais utilizados na agricultura, como fertilizantes e agroquímicos, por exemplo.

A elaboração de novos fertilizantes tem sido uma das linhas de pesquisa que mais têm utilizado as instalações do LNLS. Nesses estudos, tem-se dado ênfase ao fósforo para produção de fertilizantes fosfatados, por ele ser um macronutriente essencial para o ciclo de vida das plantas. Além disso, por se tratar de um elemento cujas reservas estão cada vez mais escassas.

A atual fonte de luz síncrotron do LNLS, o UVX, único acelerador de partículas em operação na América Latina, também tem sido utilizada por pesquisadores da Universidade Federal de Viçosa (UFV) para estudar o fosfato em colônias pinguineiras na Antártica.

É importante ressaltar que, nos estudos conduzidos pelos pesquisadores da UFV, o foco das pesquisas é o de monitorar as sucessões ecológicas ocorridas no continente antártico como resultado do aquecimento global, nos quais os fosfatos podem ser utilizados como indicadores dessas sucessões.

Para a caracterização química e mineral dos solos antárticos, foram utilizadas três técnicas experimentais disponíveis em três linhas de luz do LNLS: difração, fluorescência e espectroscopia de absorção de raios X moles.

“Por meio da técnica de absorção de raios X, uma das técnicas de maior interesse em pesquisa em geociências, é possível determinar a forma química de um elemento de maneira muito direta, podendo-se ter acesso ao ambiente local de um determinado átomo”, explicou Abdala.

É por meio de estudos como estes que é possível determinar se o fósforo, em determinada condição ambiental, está associado à matriz do solo por uma ligação bidentada ou monodentada.

“Se for determinado que o fósforo encontra-se predominantemente em sua forma monodentada, pode-se concluir que ele está menos intimamente associado à matriz do solo, podendo ser mais facilmente absorvido pela planta, mas também mais facilmente perdido para o ambiente. Se a forma predominante for a bidentada, isso implica ele estar mais fortemente associado à matriz do solo, e as chances de ele entrar em equilíbrio com a solução do solo e participar diretamente da nutrição da planta ou contaminar o ambiente serão dificultadas. Por meio de técnicas baseadas em radiação síncrotron, é possível discutir a reatividade desses elementos baseando-se na espécie química e no ambiente local de um dado elemento numa dada condição ambiental”, explicou.

Sirius

Ryan Tappero, do National Synchrotron Light Source (NSLS) dos Estados Unidos, destacou que a nova fonte de luz síncrotron brasileira, o Sirius, em construção no CNPEM, ampliará ainda mais as possibilidades de pesquisa em solo por combinar absorção, florescência e difração de raios X numa mesma câmara experimental e com precisão sem precedentes.

“No NSLS desenvolvemos diversas pesquisas de ponta, mas nosso acelerador de partículas não é mais o estado da arte em radiação síncrotron. O Sirius, uma fonte de luz síncrotron de quarta geração, vai elevar as pesquisas em diversos campos a um novo patamar por estender o espectro de radiação para raios X mais energéticos e com brilho exponencialmente superior”, disse.

Abdala explicou que a resolução espacial que será obtida no Sirius ampliará as possibilidades dos estudos sobre a rizosfera, região que representa a interface entre o solo e as raízes das plantas.

“Trata-se de uma região muito importante porque é uma interface entre solo e planta, onde se dá a absorção de nutrientes pela planta, liberação de exsudatos radiculares, entre outros processos. A resolução espacial e o tempo de aquisição de dados no Sirius facilitarão, por exemplo, estudos sobre como os micróbios afetam a ciclagem de nutrientes no solo. O entendimento da dinâmica dos processos que ocorrem na rizosfera explicará muita coisa sobre os mecanismos que as plantas utilizam para recuperar um nutriente no solo, como potássio, cálcio ou zinco.”

Também será possível avançar em estudos de biofortificação de alimentos, ou seja, no enriquecimento de alimentos com formas mais biodisponíveis de diversos nutrientes, citou Abdala.

“É conhecido que o feijão, por exemplo, é rico em ferro. Porém, muito dele está associado ao fitato, o que reduz não só a biodisponibilidade do ferro, mas também de zinco e de outros metais presentes no feijão. Com o Sirius, será possível obter maior precisão na localização e determinação das espécies químicas desses elementos em regiões de um fruto, por exemplo, e indicar que partes são de maior interesse do ponto de vista nutricional.”

O Sirius, que deve começar a operar em 2018, terá o maior brilho entre todos os equipamentos na sua classe de energia em operação ou em construção no mundo. Sua infraestrutura será aberta e poderá ser usada por pesquisadores de diversas procedências.

ESPCA

A FAPESP lançou um site para o programa Escola São Paulo de Ciência Avançada (ESPCA), que oferece recursos para a organização de cursos de curta duração em pesquisa avançada nas mais diversas áreas do conhecimento.

O site, em português e em inglês, reúne informações sobre as próximas escolas e as mais de 40 já realizadas e que reuniram milhares de estudantes e pesquisadores de diversos países – entre os quais ganhadores do Nobel como a israelense Ada Yonath, o japonês Ei-ichi Negishi, os norte-americanos Alvin Roth e John Nash e o suíço Kurt Wüthrich.

As páginas das escolas apresentam um resumo sobre a mesma, o programa final, fotos das atividades realizadas e outras informações. Várias páginas trazem ainda links para reportagens publicadas sobre as escolas na Agência FAPESP.

Cada ESPCA recebe cerca de 100 estudantes, dos quais em torno de 50% são do exterior. Para manutenção dos estudantes selecionados que venham de outras cidades, estados e países, os benefícios oferecidos são passagens aéreas, despesas de transporte terrestre local (aeroporto-hotel) e diárias na cidade que sediará a escola.

As solicitações devem ser submetidas para análise atendendo a Chamadas de Propostas anunciadas pela FAPESP e publicadas no site do programa. Onze chamadas já foram lançadas desde 2009, quando o programa foi criado.

O site do programa ESPCA pode ser acessado em: espca.fapesp.br

(*) Reportagem publicada em 29 de julho de 2015 e agora republicada com novas informações

Link original: http://agencia.fapesp.br/luz_sincrotron_aprofunda_conhecimento_sobre_solo_brasileiro_/21685/

Publicado em Uncategorized | Deixe um comentário

Manifesto da Ciência Tropical: um novo paradigma para o uso democrático da ciência como agente efetivo de transformação social e econômica no Brasil

por Miguel Nicolelis

É hora da ciência brasileira assumir definitivamente um compromisso mais central perante toda a sociedade e oferecer o seu poder criativo e capacidade de inovação para erradicar a miséria, revolucionar a educação e construir uma sociedade justa e verdadeiramente inclusiva.

É hora de agarrar com todas as forças a oportunidade de contribuir para a construção da nação que sonhamos um dia ter, mas que por muitas décadas pareceu escapar pelos vãos dos nossos dedos.

É hora de aproveitar este momento histórico e transformar o Brasil, por meio da prática cotidiana do sonho, da democracia e da criação científica, num exemplo de nação e sociedade, capaz de prover a felicidade de todos os seus cidadãos e contribuir para o futuro da humanidade.

No intuito de contribuir para o início desse processo de libertação da energia potencial de criação e inovação acumulada há séculos no capital humano do genoma brasileiro, eu gostaria de propor 15 metas centrais para a capacitação do Programa Brasileiro de Ciência Tropical.

A implementação delas nos permitirá acelerar exponencialmente o processo de inclusão social e crescimento econômico, que culminará, na próxima década, com o banimento da miséria, a maior revolução educacional e ambiental da nossa história e a decolagem irrevogável e irrestrita da indústria brasileira do conhecimento.

Estas 15 metas visam a desencadear a massificação e a democratização dos meios e mecanismos de geração, disseminação, consumo e comercialização de conhecimento de ponta por todo o Brasil.

1) Massificação da educação científica infanto-juvenil por todo o território nacional

O objetivo é proporcionar a 1 milhão de crianças, nos próximos 4 anos, acesso a um programa de educação científica pública, protagonista e cidadã de alto nível. Esse programa utilizará o método científico como ferramenta pedagógica essencial, combinando a filosofia de vida de dois grandes brasileiros: Paulo Freire e Alberto Santos-Dumont.

Ao unir a educação como forma de alcançar a cidadania plena com a visão de que ciência se aprende e se faz “pondo a mão na massa”, sugiro a criação do Programa Educação para Toda a Vida, do qual faria parte o Programa Nacional de Educação Científica Alberto Santos -Dumont (veja abaixo). A porta de entrada se daria nos serviços de pré-natal para as mães dos futuros alunos do programa. Após o nascimento, essas crianças seriam atendidas no berçário e na creche, depois na escola de educação científica que os serviria dos 4-17 anos, para que esses brasileiros e brasileiras possam desenvolver toda a sua potencialidade intelectual e criativa nas duas próximas décadas de suas vidas.

O programa de educação científica seria implementado no turno oposto ao da escola pública regular, criando um regime de educação em tempo integral para crianças de 4-17 anos, por meio de parceria do governo federal com governos estaduais e municipais. Cada unidade da rede de universidades federais poderia ser responsável pela gestão de um núcleo do Programa Educação para Toda Vida, voltado para a população do entorno de cada campus.

O governo federal poderia ainda incentivar a participação da iniciativa privada, oferecendo estímulos fiscais e tributários para as empresas que estabelecessem unidades de educação científica infanto-juvenil, ao longo do território nacional. Por exemplo, o novo centro de pesquisas da Petrobras poderia criar uma das maiores unidades do Educação para Toda Vida.

2) Criação de centros nacionais de formação de professores de Ciência

A implementação do Programa Educação para Toda Vida geraria uma demanda inédita para professores especializados no ensino de ciência e tecnologia. Para supri-la, o governo federal poderia estabelecer o Programa Nacional de Educação Científica Alberto Santos -Dumont, que seria o responsável pela gestão dos centros nacionais de formação de professores de ciências, espalhados por todo território nacional. As universidades federais, os Institutos Federais de Tecnologia (antigos CEFETs) e uma futura cadeia de Institutos Brasileiros de Tecnologia (veja abaixo) poderiam estabelecer programas de formação de professores de ciências e tecnologia em todo o país.

Esses novos programas capacitariam uma nova geração de professores a ensinar conceitos fundamentais da ciência, através de aulas práticas em laboratórios especializados, tecnologia da informação e utilização de métodos, processos e novas ferramentas para investigação científica.

Os alunos que se graduassem no programa Educação para Toda Vida teriam capacitação, antes mesmo do ingresso na universidade, para se integrar ao trabalho de laboratórios de pesquisa profissionais, tanto públicos como privados, através do Programa Nacional de Iniciação Científica e do Bolsa Ciência (veja abaixo).

3) Criação da carreira de pesquisador científico em tempo integral nas universidades federais

Seria em paralelo à tradicional carreira de docente. Ela nos permitiria recrutar uma nova geração de cientistas que se dedicaria exclusivamente à pesquisa científica, com carga horária de aulas correspondente a 10% do seu esforço total. Sem essa mudança não há como esperar que pesquisadores das universidades federais possam dar o salto científico qualitativo necessário para o desenvolvimento da ciência de ponta do país.

4) Criação de 16 Institutos Brasileiros de Tecnologia espalhados pelo país

Eles serviriam para suprir a demanda de engenheiros, tecnólogos e cientistas de alto nível e promover a inclusão social por meio do desenvolvimento da indústria brasileira do conhecimento.

Atualmente o Brasil apresenta um déficit imenso desses profissionais. Para sanar essa situação, o Brasil poderia reproduzir o modelo criado pela Índia, que, desde a década de 1950, construiu uma das melhores redes de formação de engenheiros e cientistas do mundo, constituída pela cadeia de Institutos Indianos de Tecnologia.

Para tanto, o governo federal deveria criar nos próximos oito anos uma rede de 16 Institutos Brasileiros de Tecnologia (IBT) e espalhá-los em bolsões de miséria do território nacional, especialmente nas regiões Norte, Nordeste e Centro-Oeste. Cada IBT poderia admitir até 5.000 alunos por ano.

5) Criação de 16 Cidades da Ciência

Localizadas nas regiões com baixo índice de desenvolvimento humano, como o Vale do Ribeira, Jequitinhonha, interior do Nordeste, Amazônia, as Cidades da Ciência ficariam no entorno dos novos IBTs.

As Cidades da Ciência seriam, na prática, o componente final da nova cadeia de produção do conhecimento de ponta no Brasil. Acopladas aos novos IBTs e à rede de universidades federais, criariam o ambiente necessário para a transformação do conhecimento de ponta, gerado por cientistas brasileiros, em tecnologias e produtos de alto valor agregado que dariam sustentação à indústria brasileira do conhecimento.

Nas Cidades da Ciência seriam criadas e estabelecidas as grandes empresas do conhecimento nacional, onde o potencial científico do povo brasileiro poderia se transformar em novas fontes de riqueza a serem aplicadas na gênese de um sistema nacional autossustentável. Tal iniciativa permitiria a inserção do Brasil na era da economia do conhecimento que dominará o século XXI.

6) Criação de um arco contínuo de Unidades de Conservação e Pesquisa da Biosfera da Amazônia

Esse verdadeiro cinturão de defesa, formado por um arco contínuo de Unidades de Conservação e Pesquisa da Biosfera da Amazônia, seria disposto em paralelo ao chamado “Arco de Fogo”, formado em decorrência do agronegócio predatório e da indústria madeireira ilegal, responsáveis pelo desmatamento da região. Essa iniciativa visa a fincar uma linha de defesa permanente contra o avanço do desmatamento ilegal, modificando a estratégia das unidades de conservação a fim de colocá-las a serviço de um Programa Nacional de Mapeamento dos Biomas Brasileiros. Uma série de unidades de conservação poderia ser transformada em unidades híbridas. Assim, além da conservação, poderiam incluir grandes projetos de pesquisa que possibilitem ao Brasil mapear a riqueza e a magnitude dos serviços ecológicos e climáticos encontrados nos diversos biomas nacionais.

Para incentivar a participação de populações autóctones nesse esforço, o governo federal poderia criar o programa Bolsa Ciência Cidadã. Homens, mulheres e adolescentes, que vivem na floresta amazônica e conhecem seus segredos melhor do que qualquer professor doutor, receberiam uma bolsa, similar ao bolsa família, para integrarem as equipes de pesquisadores e responsáveis pela implementação das leis ambientais na região. Esse exército de cidadãos, devotado à investigação científica e à proteção da Amazônia, mostraria ao mundo o quão determinado o Brasil está em preservar uma das maiores maravilhas biológicas do planeta.

Evidentemente tal iniciativa poderia ser replicada em outras áreas críticas, também ameaçadas pela indústria predatória, como o Pantanal, a caatinga, o cerrado, a Mata Atlântica e os Pampas.

7) Criação de oito “Cidades Marítimas” ao longo da costa brasileira

A descoberta do pré-sal demonstra claramente que uma das maiores fontes potenciais de riqueza futura da sociedade brasileira reside no vasto e diverso bioma marítimo da nossa costa.

Apesar disso, os esforços nacionais para estudo científico desse vasto ambiente são muito incipientes. Aqui também o Brasil pode inovar de forma revolucionária. Em parceria com a Petrobras, o governo federal poderia estabelecer, no limite das 350 milhas marinhas, oito plataformas voltadas para a pesquisa oceanográfica e climática, visando ao mapeamento das riquezas no mar tropical brasileiro.

Essas verdadeiras “Cidades Marítimas”, dispostas a cada mil quilômetros da costa brasileira, seriam interligadas por serviço de transporte marítimo e aéreo (helicópteros) e se valeriam de incentivos à renascente indústria naval brasileira, para o desenvolvimento, por exemplo, de veículos de exploração a grandes profundidades. Cada “Cidade Marítima” seria autossuficiente, contando com laboratórios, equipamentos e equipe própria de pesquisadores. Tais edificações serviriam também como postos mais avançados de observação dos limites marítimos do Brasil. Com o crescente desenvolvimento da exploração do pré-sal, essa rede de “Cidades Marítimas” poderia assumir papel fundamental na defesa da nossa soberania marítima dentro das águas territoriais.

8) Retomada e Expansão do Programa Espacial Brasileiro

Embora subestimado pela sociedade e a mídia brasileiras, o fortalecimento do programa espacial brasileiro oferece outro exemplo emblemático de como o futuro do desenvolvimento científico no Brasil é questão de soberania nacional.

Dos países pertencentes ao BRIC, o Brasil é o que possui o mais tímido e subdesenvolvido programa espacial. Apesar da sua situação geográfica altamente favorável, a Base de Alcântara não tem correspondido às altas expectativas geradas com a sua construção.

Essa situação é inaceitável, uma vez que, a longo prazo, pode levar o Brasil a uma dependência irreversível no que tange a novas tecnologias e novas formas de comunicação, colocando a nossa soberania em risco. Dessa forma, urge reativar os investimentos nessa área vital, definir novas e ambiciosas metas para o programa espacial brasileiro e esclarecer o papel da sociedade civil na operação dos programas da Base de Alcântara, cujo controle deveria estar nas mãos de uma equipe civil de pesquisadores e não das forças armadas.

9) Criação de um Programa Nacional de Iniciação Científica

Com a criação do Programa Educação para Toda Vida, seria necessário implementar novas ferramentas para que os adolescentes egressos desses programas pudessem dar vazão a seus anseios de criação, invenção e inovação através da continuidade do processo de educação científica, mesmo antes do ingresso na universidade e depois dele.

Na realidade, é extremamente factível que grande número desses jovens possa começar a contribuir efetivamente para o processo de geração de conhecimento de ponta antes do ingresso na universidade.

O governo federal poderia criar um Programa Nacional de Iniciação Científica que leve ao estabelecimento de 1 milhão de Bolsas Ciência. Uma experiência preliminar desse programa já existe no CNPQ, através do recém-criado programa dos Institutos Nacionais de Ciência e Tecnologia. Bastaria ampliá-lo e remover certas amarras burocráticas que dificultam a sua implementação neste momento. Esse programa poderia também ser usado pelo governo federal para eliminar uma porcentagem significativa (30%) da evasão do ensino médio, decorrente da necessidade dos alunos em contribuir para a renda familiar.

Jovens de talento científico reconhecido deveriam também ter a opção de seguir carreira de inventor ou pesquisador sem necessitar de doutorado ou outro curso de pós-graduação. Tal alternativa contribuiria decisivamente para a diminuição do período de treinamento necessário para que talentos científicos pudessem participar efetivamente do desenvolvimento científico do Brasil.

10) Investimento de 4-5% do PIB em ações de ciência e tecnologia na próxima década

Tendo proposto novas ações, é fundamental que essas sejam devidamente financiadas. Para tanto e, ainda, para assegurar a ascensão da ciência brasileira aos patamares de excelência dos países líderes mundiais, o governo brasileiro teria de tomar a decisão estratégica de destinar, nas próximas décadas, algo em torno de 4-5% do PIB nacional à ciência e tecnologia.

Em vários países, como os EUA, essa conta é dividida em partes iguais entre o poder público e privado. No Brasil, todavia, não existem condições para que isso ocorra de imediato. Dessa forma, não restaria outra alternativa ao governo federal senão assumir a responsabilidade desse investimento estratégico, usando novas fontes de receita, como a gerada pela exploração do pré- sal.

11) Reorganização das agências federais de fomento à pesquisa

Reformulação de normas de procedimento e processo para agilizar a distribuição eficiente de recursos ao pesquisador e empreendedor científico, bem como criar um novo modelo de gestão e prestação de contas.

A ciência e o cientista brasileiro não podem mais ser regidos pelas mesmas normas de 30-40 anos atrás, utilizadas na prestação de contas de recursos públicos para construção de rodovias e hidrelétricas.

Urge, portanto, reformular completamente todos os protocolos de cooperação do Ministério da Ciência e Tecnologia (MCT) com outros ministérios estratégicos para execução de projetos multiministeriais.

Na lista de cooperação estratégica do MCT, incluem-se os ministérios da Educação, Saúde, Meio Ambiente, Minas e Energia, Indústria e Comércio, Agricultura, Defesa e Relações Exteriores.

Normas comuns de operação dos departamentos jurídicos e dos processos de prestação de contas devem ser produzidas entre o MCT e esses ministérios, de sorte a incentivar a realização de projetos estratégicos interministerais, como o Educação para Toda Vida.

O cenário atual cria inúmeros empecilhos para ratificação de projetos estratégicos aprovados no mérito científico (o principal quesito), mas que, via de regra, passam meses e até anos prisioneiros dos desconhecidos meandros e procedimentos conflitantes com que operam os diferentes departamentos jurídicos dos diferentes ministérios.

Urge eliminar tal barreira kafkaniana e transferir o poder de decisão, atualmente nas catacumbas jurídicas dos ministérios onde volta e meia processos desaparecem, para as mãos dos gestores de ciência treinados para implementar uma visão estratégica do projeto nacional de ciência e tecnologia.

12) Criação de joint ventures para produção de insumos e materiais de consumo para prática científica dentro do Brasil

É’ fundamental investir numa redução verdadeira dos trâmites burocráticos “medievais” que ainda existem para aquisição de materiais de consumo e equipamentos de pesquisa importados. Para tanto, é importante definir políticas de incentivo ao estabelecimento de empresas nacionais dispostas a suprir o mercado nacional com insumos e equipamentos científicos.

13) Criação do Banco do Cérebro

Um dos maiores gargalos para o crescimento da área de ciência e tecnologia no Brasil é a dificuldade que cientistas e empreendedores científicos enfrentam para ter acesso ao capital necessário para desenvolver novas empresas baseadas na sua propriedade intelectual. Na maioria das vezes, esses inventores e microempreendedores científicos ficam à mercê da ação de venture capitalists, que oferecem capital em troca de boa parte do controle acionário da empresa em que desejam investir.

Para reverter esse cenário, o governo federal poderia criar o Banco do Cérebro, uma instituição financeira destinada a implementar vários mecanismos financeiros para fomento do empreendedorismo científico nacional. Essas ferramentas financeiras incluiriam desde programa de microcrédito científico até formas de financiamento de novas empresas nacionais voltadas para produtos de alto valor agregado, fundamentais ao desenvolvimento da ciência brasileira e da economia do conhecimento.

Para isso, o governo federal deverá exigir que esses novos empreendimentos científicos sejam localizados numa das novas Cidades da Ciência. Joint ventures entre empreendedores brasileiros e estrangeiros também deverão ser estimuladas pelo Banco do Cérebro, seguindo o mesmo critério social.

14) Ampliação e incentivo a bolsas de doutorado e pós-doutorado dentro e fora do Brasil

À primeira vista pode parecer contraditório propor metas para o desenvolvimento da Ciência

Tropical e, ao mesmo tempo, reivindicar aumento significativo de bolsas de doutorado e pós- doutorado para alunos brasileiros no exterior. Novamente, a proposta da Ciência Tropical é, antes de tudo, um nova proposta para o desenvolvimento de excelência na prática da pesquisa e educação científica. Dessa forma, ela tem de incentivar todas as formas que permitam aos melhores e mais promissores cientistas brasileiros complementarem sua formação fora do território nacional.

Como bem disse a presidente-eleita Dilma Rousseff durante a campanha: “ O Brasil precisa de seus cientistas porque eles iluminam o nosso país”. Pois que os futuros jovens cientistas brasileiros tenham a oportunidade de se transformar em genuínos embaixadores da ciência brasileira e complementar seus estudos em universidades e institutos de pesquisa estrangeiros, líderes em suas respectivas áreas. Esse processo de intercâmbio e “oxigenação” de idéias é essencial à prática da ciência de alto nível. Mesmo os cientistas brasileiros que optarem por ficar no exterior depois desse e treinamento poderão trazer dividendos fundamentais para o desenvolvimento da Ciência Tropical.

15) Recrutamento de pesquisadores e professores estrangeiros dispostos a se radicar no Brasil

Com a crise financeira, verdadeiros exércitos de cientistas americanos e europeus estarão procurando novas posições nos próximos anos. Cabe ao Brasil tirar vantagem dessa situação e passar a ser um importador de cérebros e não um exportador de talentos.

Historicamente, a academia brasileira tem inúmeros exemplos excepcionais de pesquisadores estrangeiros de alto nível que alavancaram grandes avanços científicos no Brasil. O Programa Brasileiro de Ciência Tropical só teria a ganhar com uma política mais abrangente, audaciosa e sistêmica de importação de talentos.

Publicado em Uncategorized | Deixe um comentário

Has Science a Problem? – Stuart Vyse

As skeptics, we value ideas that are grounded in science over those that come from somewhere else. We believe that the methods of science, when conscientiously applied, produce the best available information. In pursuit of our goals, we often focus on the latest wave of pseudoscience or superstition. Some new bit of claptrap pops up, and we sharpen our scientific swords and mount the attack.

Going on the offensive is what we do best, but it is also important to have a strong defense. If we are going to be successful, we must do everything we can to make sure there are no kinks in our own armor. For science to stand as a shining alternative to the unending waves of irrationality, its reputation must be strong.

Unfortunately, science’s reputation has taken a bewildering number of blows in recent years. The challenges have come in the form of unscrupulous researchers, unreliable results, and sloppy publication practices.

The Nature of the Problem(s)

Some of the most recent blows to the image of science are cases of apparent—and in one case quite openly perpetrated—fraud.

LaCour and Green (2014) In December of 2014, political scientists Michael LaCour and Donald Green published an article in the prestigious journal Scienceshowing that, when canvassed about the topic of gay marriage, voters showed a strong and lasting shift in the favorable direction if the canvassers disclosed that they were gay. But the article was recently retracted because LaCour made false statements about the funding of the study and the payment of survey respondents. In addition, LaCour appears to have lied on his résumé, fabricated the data in at least one of the studies in the Sciencepaper, and possibly fabricated data foranother published study.1 Donald Green, the senior co-author on the Science article requested that the paper be retracted, but LaCour has posted a twenty-two-page defense of the paper on his personal website and has not joined Green in supporting the retraction. As of this moment, LaCour appears to stand by his research and has defended himself on Twitter. However, speaking through an attorney, he admitted to making false representations about the study’s funding.

Nate Silver links to evidence of another LaCour paper being faked; LaCour calls it an unsubstantiated claim

The Infamous Chocolate Study In what was designed to be a deliberate and instructive hoax, science journalist John Bohannon teamed up with two documentary filmmakers and other collaborators to conduct a real but flawed study to determine whether eating chocolate in combination with a low carbohydrate diet would promote weight loss. By designing the study in such a way that statistically significant (but practically irrelevant) results would almost certainly be obtained, they discovered that—lo and behold—chocolate in combination with a low carbohydrate diet produced improved weight loss and lower cholesterol. Despite its many flaws, the study was accepted by several journals and eventually appeared in the International Archives of Medicine. Given the sensational topic and appealing results, the study was quickly picked up by news outlets all over the world.2

screen shot of Daily Star coverage of chocolate studyDaily Star (UK) coverage of the bogus chocolate study.

The history of fraudulent scientific research is long and storied. The United States Office of Research Integrity investigates many cases each year and lists the names of researchers found guilty of misconduct. Furthermore, if you follow the Retraction Watch blog you will learn that journals retract articles far more often than most people would suspect. As I write this, Retraction Watch is reporting that the Journal of Immunology is retracting a 2006 study because multiple illustrations in the article were falsified.

It is difficult to say whether there is more or less research fraud than there was in the past, but it is likely that in today’s world more of the research fraud that exists will be reported in the news media.

#repligate

Scientific research is supposed to be repeatable. When researchers demonstrate some new effect or phenomenon, it should not be a one-off event. As a result, when they publish their findings, investigators include detailed descriptions of the methodology they used so that other researchers in different laboratories can try to get the same results. Things that cannot be reproduced are immediately suspect.

Unfortunately, journals much prefer to publish shiny new things rather than attempts to replicate older findings, and publication in journals is the main vehicle for success as an academic scientist. So, as a matter of fact, replications of previous studies are quite rare. As a result, many sensational studies are assumed to be fact and are widely cited, but they may or may not be reproducible. In the field of social psychology, the #repligate problem has recently come to a head. Some very widely cited studies have been brought into question by failures to replicate. In particular, research on priming effects—subtle cues that go unnoticed but still influence behavior—have come under criticism.

Priming effects are often quite stunning (e.g., hand-washing improves your moral judgment of other people), but this area of psychology has been plagued with examples of research fraud and findings that have not been reproduced. In 2012, a controversy erupted surrounding a famous article co-authored by Yale University professor John Bargh. In the original study, one group of college students unscrambled sentences that included words that were stereotypical of the elderly (e.g., wrinkle, Florida) and another group unscrambled sentences without these words. Later, the participants in the elderly prime group walked significantly slower down a hallway as they exited the laboratory than those in the other group. Pretty cool!

In January of 2012, a group of researchers from Belgium published an attempt to replicate these findings in the online journal PLOS One. Using more stringent procedures and a larger sample of participants, the Belgium group found no priming effect except when the experimenters conducting the study knew about the expected finding. This and other priming controversies inspired Princeton University psychologist Daniel Kahneman to write an open letter expressing his belief that the field of priming, “is now the poster child for doubts about the integrity of psychological research.” He urged that the problem be tackled head on with a collaborative effort to replicate findings.

screen shot of TED website: Your body language shapes who you are

Just this spring a published failure to replicate the “power pose” effect—which suggests that striking a dominant posture affects hormone levels and risk-taking behavior—raised questions about research by Amy Cuddy that is the basis of her TED talk—currently the second most popular TED talk of all with over 26 million views.

Lest you think the problem is restricted to “softer” social science research, a recent studyin the journal PLOS Biology found that half of all pre-clinical biological sciences studies are irreproducible and that $28 billion in research funds are wasted each year. Furthermore, few of the faulty papers listed on the Retraction Watch blog are from the social sciences.

How (or Why) Does this Happen?

The kind of sloppy and fraudulent research that we see demonstrated in these cases probably has many sources. Here are just a few:

1. Personal and Professional Motives. Scientists have always been under pressure to “publish or perish.” Getting tenure and achieving academic success depends upon producing high quality peer-reviewed articles. But the media explosion of recent decades has changed the nature of science, adding new layers of motivation for the ambitious scientist.

In the past, no matter where they worked, scientists toiled in relative obscurity, publishing their findings in journals that rarely came to the attention of the general public. Today the landscape is quite different. In my own field of psychology, it is now quite common for researchers from the most highly regarded universities to write bestselling books, appear as talking heads on television, have thousands of Twitter followers, give TED talks that are watched by millions of people, and command substantial speaker’s fees.

The sciences, once an area that was relatively immune from the pull of celebrity, now has an expanding pantheon of rock stars who sometimes appear to be doing more writing for popular audiences than for professional ones. Almost all research universities now have active public relations departments that put out press releases when potentially newsworthy studies are published. Here is an excerpt from a recent university press release I came across:

instructions describing how to schedule interview with professorFrom a university press release announcing the publication of a faculty research study.

Before the recent debacle, LaCour and Green’s article in Science was covered by media outlets throughout the world, was used as template for the “Yes” campaign in the recent Irish gay marriage referendum, and helped to land LaCour a job at Princeton University. Now that the article has been retracted, the Princeton job is in doubt—but it is easy to see how researchers might cut corners in an effort to achieve prestigious jobs and personal fame.

2. Social or Political Motives Affecting Peer Review. Reputable scientific journals only publish articles that have been reviewed by other qualified scientists. Despite Science’s prestigious reputation, the LaCour case is one where peer review may not have been as rigorous as it should have been. If the reviewers were supporters of gay marriage, they would be quite happy with LaCour and Green’s findings. Unfortunately, reviewer biases can easily produce sloppy evaluations of studies that support a pet theory or are particularly sensational.

3. Peer Review is Volunteer Labor Reviewing manuscripts that have been submitted for publication in journals is a very time-consuming task, and almost all of this work is done on a volunteer basis. For the working scientist or academic, there is very little benefit to taking on this kind of work. It is a professional service done for free, and the quality of reviews varies widely. Under this kind of a publication system, bad research will sometimes sneak through.

4. P-hacking. In many fields—including most of the social sciences—you can only get your research published if you find statistically significant results. P-hacking is a time-honored but dubious process of tweaking your data until you find something that is significant at the hallowed p < .05 (5 chances out of a 100) probability level. P-hacking is what created the Infamous Chocolate Study results, and in today’s world it is much easier to do than it used to be. Computer analysis of data makes it possible to reanalyze data in many different ways and then choose the version you like best. Also, in today’s world of online surveying methods social science researchers can obtain large numbers of participants quickly and inexpensively. Larger samples mean that even very small effects—effects that have little or no practical value—can achieve statistical significance and find their way into print. Thankfully, p-hacking continues to be identified as a serious problem and remains an important concern of the research community.

hand-written, misspelled fake journal cover

5. An Epidemic of Fake Journals. All of the above are problems faced by reputable scientific journals, but suddenly there are a number of fake journals whose sole reason to exist is to make money. A new trend in science is the advent of “open access” journals that are freely available to readers online. Instead of charging for subscriptions, these journals often support themselves through fees—sometimes substantial fees—paid by authors who submit their articles for publication.

Some open access journals are of good quality—PLOS One and PLOS Biology are both open access journals—but others are little more than money-making scams. Inan earlier sting operation for Sciencemagazine, John Bohannon, the journalist/author of The Infamous Chocolate Study, submitted copies of a bogus and deeply flawed research report supposedly describing a new anti-cancer drug to 304 open-access journals. The paper should have been summarily rejected by any reputable journal—and it was rejected by many. But over half (!) of the 304 submissions were accepted—most often without any evidence that they had been peer reviewed at all. Unfortunately, these journals have authoritative sounding names and—as the chocolate study episode suggests—the news media and the general public are ill-equipped to determine which journals are trustworthy and which are bogus.

The Good News

So the answer to the question is yes. Science has a problem, and it is one that has new and troubling dimensions. But there is also some good news.

David Can Still Slay Goliath.

Thankfully, recent history shows that one very important principle of science still holds: evidence is more important than the researcher’s professional or social status. A lowly graduate student can still take down a tenured professor. In 2013, Thomas Herndon, a28-year-old University of Massachusetts graduate student, tried to replicate the findings of two Harvard economists for a class project and discovered a number of errors in their analysis. Herndon and colleagues went on to publish a scathing take-down of the study. The original paper had been used by Paul Ryan and other conservative politicians to justify painful austerity programs, but a smart graduate student was able discredit it.

Michael LaCour was a graduate student at UCLA when he published the gay canvassing study but his co-author, Donald Green, was a tenured full professor at Columbia University. Again in this case, it was a graduate student, David Brookman of the University of California at Berkeley, who posed the questions that ultimately led to the Science retraction. Brookman was initially very admiring of LaCour’s work but ran into difficulties when he attempted to replicate it.

The gods sometimes have clay feat, and mere mortals can topple them.

Post-publication Peer Review

As we have seen, peer review has its weaknesses. But today, publication of an article is not the end of the line. In the past, researchers were asked to retain the raw data of their studies for a few years in case someone asked to see it, but not all researchers followed this guideline. Today, some journals are requiring that researchers make the raw data from their studies available electronically at the time of publication, so that anyone can download the data and re-analyze it. Today, when research becomes widely available on the Internet, it frequently receives intense scrutiny after publication, and if errors are found, they can be corrected or—when warranted—the paper can be retracted. So, in the future, flawed studies that get through the publication process will often be caught after they have been published. This is what the Retraction Watchproject is all about.

Fraud is Still a Solitary Enterprise

There are systematic problems that plague science. P-hacking, for example, is a widespread problem that affects many researchers, consciously or unconsciously. In contrast, deliberate fraud appears to be specific to particular individuals. Random unscrupulous scientists are likely to emerge from time to time, and many of their names are listed on the Office of Research Integrity website. It is important to identify and pursue these Bernie Madoffs of the science community, but once they and their crimes are identified, they tend to be seen as individual culprits who are not representative of the field as a whole.

Furthermore, it is heartening to see that scientists who engage in fraud are often reported by those closest to them. Years ago, the faked data of University of Pittsburgh psychologist Stephen Breuning was first brought to light by his collaborator and colleague Robert Sprague.3 In the Michael LaCour case, it was his coauthor, David Green, who—after learning that LaCour had deleted the raw data—requested thatScience retract their paper.4 Green may be faulted for not having kept a closer eye on his young collaborator before the misconduct was revealed, but once the problem came to his attention, he acted swiftly and honorably.
So, yes. Science has a problem. It has some of the same old problems of maintaining research integrity, as well as some new problems created by the contemporary media explosion and the use of computers and the Internet in research. But there also seems to be a heightened level of scrutiny of scientific research that will—in the long run—keep us strong. Science is going through a period of adjustment to a new research environment, but I see no evidence that things are going off the rails. Just as we always have, skeptics will need to help the credulous weed out the reliable from the unreliable sources of information, but we can still rely on the scientific alternative to be strong and getting stronger.

Stuart Vyse

Stuart Vyse's photoStuart Vyse is a psychologist and author of Believing in Magic: The Psychology of Superstition, which won the William James Book Award of the American Psychological Association. He is also author of Going Broke: Why American’s Can’t Hold on to Their Money. As an expert on irrational behavior, he is frequently quoted in the press and has made appearances on CNN International, the PBS NewsHour, and NPR’s Science Friday. He can be found on Twitter at @stuartvyse.

Link original:  http://www.csicop.org/specialarticles/show/has_science_a_problem

Publicado em Artigos sugeridos | Deixe um comentário

Por que o cientista brasileiro inova pouco – Por João Luiz Rosa

Imagine dois professores universitários ­ um americano e outro brasileiro ­ ambos docentes de universidades públicas e referências em suas áreas de atuação. O primeiro faz pesquisas para empresas privadas durante três meses por ano. O segundo também: por cinco dias a cada semestre. O americano pode ser administrador de sua própria companhia; o brasileiro, não. Um conta com uma agência de inovação dentro da universidade, que se responsabiliza por registrar e vender suas patentes. O outro também, com a diferença de que o reconhecimento de uma patente pode levar de sete a oito anos. Adivinha quem inova mais?

A comparação ajuda a entender por que o pesquisador brasileiro continua tão afastado do setor privado. Transferir conhecimento da academia para as empresas é fundamental para o crescimento econômico porque só dessa maneira é que a pesquisa vira, de fato, inovação. No Brasil, porém, uma série de restrições torna difícil esse caminho.

“A Lei de Inovação, de 2004, prevê que os professores [de universidades públicas] façam parcerias com empresas, o que antes não era permitido”, afirma Fernanda De Negri, do Instituto de Pesquisa Econômica Aplicada (Ipea). O problema é que outra legislação, de 2013, que regulamenta a carreira docente, limita esse tempo a até 120 horas semestrais ­ ou cinco dias. “Na prática, isso inviabiliza as parcerias”, diz Fernanda ao Valor.

O Ipea realizou, na semana passada, um seminário sobre inovação e produtividade. Agora, prepara­- se para lançar um livro, o segundo, sobre o tema.

A falta de cooperação entre universidades e indústria é parte da fragilidade do ambiente de inovação no país. No ano passado, a americana IBM registrou 7.534 patentes, mais de 20 por dia. Tornou­se, pelo 22º ano consecutivo, a empresa a obter mais registros no mundo. No Brasil, onde a transferência tecnológica engatinha, são as universidades que ocupam o topo da lista. É verdade que as escolas americanas também são pródigas na área, mas com uma diferença. Elas são ágeis em vende as patentes para as empresas, que as transformam em produtos. “A universidade não existe para vender bens. É preciso transferir o conhecimento e ganhar royalties. E o Brasil não consegue dar esse passo”, diz Fernanda.

Essa deficiência indica falhas nas agências de inovação, que deveriam cuidar do assunto nas universidades. Em centros de ponta como o Technion, o Instituto de Tecnologia de Israel, os cientistas não deixam os laboratórios para vender suas criações. Uma agência tem a tarefa de encontrar compradores e cuidar da negociação.

Tentativas parecidas têm sido feitas no Brasil. Os núcleos de inovação tecnológica, ou NITs, concebidos para cumprir esse papel, tornaram­se obrigatórios nas universidades públicas. Mas falta uma estrutura profissional, afirma Fernanda. O trabalho frequentemente fica nas mãos de um funcionário sem experiência na área, com resultados pífios. Em contraste, o Instituto de Tecnologia de Massachusetts, o MIT, recrutou profissionais de mercado para assessorar os pesquisadores.

Essa abordagem ajuda a identificar onde, de fato, está a demanda. “Nem toda patente merece ser mantida, porque há um custo envolvido”, diz Fernanda. “Se o mercado não tem interesse nela, não vale a pena mantê ­la.”

Maioria dos recursos é do setor público

A busca pela inovação no Brasil é marcada por um curioso desequilíbrio: embora o setor privado reconheça a importância de criar produtos e serviços, a maior parte dos recursos destinados à pesquisa tem outra origem ­ o governo.

Segundo dados compilados pelo Ministério da Fazenda, com base em informações da Unesco, a participação pública nos investimentos em pesquisa e desenvolvimento somam 52% do total. Nos Estados Unidos, essa fatia é de 31%, e no Japão, de 17%. A proporção é que para cada dólar público investido em pesquisa, mais dois venham das empresas americanas e quatro das japonesas. No Brasil, a correlação não chega a um dólar

“É difícil estimular os gastos privados [em pesquisa e desenvolvimento]”, disse Carlos Américo Pacheco, diretorgeral do Centro Nacional de Pesquisa em Energia e Materiais (CNPEM), no seminário internacional sobre produtividade e inovação realizado na semana passada, em Brasília, pelo Instituto de Pesquisa Econômica Aplicada (Ipea).

Parte do problema é que em muitas empresas a inovação ainda não é um tema relevante para o topo gerencial, disse Pacheco. O assunto permanece restrito à camada média da administração, cujo poder de decisão é menor.

A adoção de uma política de substituição de importações acelerou o processo de industrialização no país e deu origem a uma estrutura industrial nada desprezível, mas com empresas concentradas no mercado interno e pouco expostas à competição internacional. O resultado, disse Pacheco, é que parte da indústria passou a depender de outras variáveis, deixando a inovação em segundo plano.

A estratégia de grupos brasileiros de ampliar sua exposição no exterior pode ser um antídoto. Para competir, essas empresas têm de reforçar os investimentos em inovação. Outra possibilidade é atrelar a política industrial e de inovação à política de comércio exterior.

Algumas escolas têm conseguido uma aproximação maior com a iniciativa privada, o que aumenta o fluxo de investimento das empresas. Em média, 6% dos gastos com pesquisa e desenvolvimento das grandes universidades do exterior são financiados por companhias. Em São Paulo, as universidades estaduais ­ USP, Unicamp e Unesp ­ estão em linha com esse número, disse Sérgio Queiroz, da Fapesp, fundação de estímulo à pesquisa. Na Unicamp, já foram criadas 254 empresas, o equivalente a 16 mil empregos e um faturamento anual de R$ 2 bilhões.

Fonte: Valor Econômico

Publicado em Artigos sugeridos | Marcado com | Deixe um comentário

O Método em Debate – (Por: MARCELO GLEISER)

RESUMO Controvérsias no meio da física e da cosmologia põem em questão o método científico na elaboração de teorias arrojadas. Neste ano, George Ellis e Joseph Silk criticaram cientistas que deixam de lado a confirmação experimental, alegando que certas teorias só precisariam ser “suficientemente elegantes e explicativas”.

*

Será que físicos precisam de evidência empírica para confirmar suas teorias? Tradicionalmente, a resposta deveria ser um “sim!” intransigente, dado que a ciência funciona através da confirmação experimental de hipóteses. É como aprendemos o famoso método científico na escola: uma hipótese sobre como funciona o mundo, por mais absurda que pareça, se bem formulada, merece ser testada no laboratório ou, no caso das ciências astronômicas, por meio de observações telescópicas.

É claro que existem nuances aqui. Por exemplo, é possível afirmar que teorias nunca estão “certas”, sendo descrições provisórias do que podemos aferir da natureza. Segundo esse prisma, o papel da ciência é provar que teorias estão erradas, substituindo-as por outras teorias que funcionam provisoriamente. De qualquer modo, sem o teste empírico é impossível averiguar a plausibilidade de uma hipótese científica.

Por mais de 400 anos essa metodologia vem funcionando espetacularmente bem. Porém, uma controvérsia nas fronteiras da física e da cosmologia vem forçando cientistas a repensar o papel do método científico na elaboração de suas teorias mais arrojadas, sugerindo que, talvez, a questão não seja tão simples.

No início deste ano, George Ellis e Joseph Silk, dois pesquisadores de renome internacional, publicaram um ensaio na revista “Nature” com o título “Método Científico: Defenda a Integridade da Física”. Nele, os autores criticam um grupo de cientistas que vem casualmente deixando de lado a necessidade de confirmação experimental no estudo de teorias cósmicas ambiciosas, alegando que basta que essas teorias sejam “suficientemente elegantes e explicativas”. Ellis e Silk alertam que, mesmo trabalhando nas fronteiras do conhecimento, esses cientistas estão “rompendo com uma tradição filosófica de séculos, que define o conhecimento científico como sendo empírico”.

Ellis e Silk expressam a preocupação de muitos cientistas. Afinal, o método científico dá credibilidade à ciência. Sem ele, como garantir que hipóteses sobre a natureza não passam de fantasias? Como defender a ciência publicamente em situações politizadas, como no caso do aquecimento global?

Como chegamos nesse impasse? De certa forma, a descoberta sensacional do bóson de Higgs três anos atrás por pesquisadores do Cern (Centro Europeu de Física Nuclear) trabalhando no Grande Colisor de Hádrons (LHC) marcou o fim de uma era.

Adam Warzama – 26.nov.13/Efe
Cientista pedala ao lado do acelerador de partículas LHC no Centro Europeu de Física Nuclear, próximo a Genebra
Cientista pedala ao lado do acelerador de partículas LHC no Centro Europeu de Física Nuclear, próximo a Genebra

Com existência prevista em meados da década de 1960, o elusivo bóson era a peça que faltava no que os físicos chamam de Modelo Padrão da física de partículas, uma teoria matemática que descreve todas as partículas de matéria conhecidas e suas interações através de três forças que agem sobre elas (o eletromagnetismo e as forças nucleares fraca e forte). Completando a descrição moderna, adicionamos uma quarta força, a gravidade.

Beco

Apesar de seu enorme sucesso, o Modelo Padrão é um beco sem saída. Não podemos usá-lo para unir a descrição da matéria como composta por minúsculas entidades subatômicas (as partículas elementares, como os quarks, que compõem o próton e o nêutron, e o elétron) com o outro pilar da física do século 20, a teoria da relatividade geral de Einstein, que descreve a gravidade.

Sem uma união dessas duas teorias –o que chamamos de uma teoria da gravitação quântica– não podemos saber porque o universo é composto dessas partículas e não outras, ou porque tem essas quatro forças. Também não sabemos como entender o Big Bang, o evento cósmico que marca o início do tempo.

É aqui que a possibilidade de uma ciência sem validação empírica surge para assombrar a consciência dos físicos. Por mais de meio século, cientistas tentam ir além do Modelo Padrão, criando teorias com o objetivo de unir a gravidade com o mundo das partículas. Apesar das muitas possibilidades sugeridas nesse período (como a popular teoria das supercordas), infelizmente nenhuma oferece qualquer sinal de evidência empírica.

Se medirmos o sucesso de uma hipótese científica pelo número de seus aderentes, a vencedora atual chama-se supersimetria (o “super” das supercordas vem daí). Teorias supersimétricas preveem que cada partícula de matéria tem uma companheira supersimétrica, efetivamente dobrando o número de tijolos fundamentais de matéria que existem na natureza.

A teoria é matematicamente elegante, e pode até solucionar a questão da “matéria escura”: sabemos que existe um tipo de matéria no universo seis vezes mais abundante do que a matéria comum que não emite luz (portanto, “escura”), mas não sabemos que matéria é essa. Dada a utilidade (ao menos hipotética) da supersimetria, muitos pesquisadores estavam confiantes de que a teoria seria confirmada assim que o LHC entrasse em funcionamento. A natureza não perderia uma chance dessas.

Mas não foi o que ocorreu. Até o momento, apesar de uma busca vigorosa em vários experimentos espalhados pelo mundo, nenhuma partícula prevista por teorias supersimétricas foi detectada. Se o LHC não descobrir ao menos uma delas (a mais leve, na maioria dos modelos), muitos cientistas jogarão a toalha, declarando a supersimetria (e, por extensão, as supercordas) mais uma bela ideia na física que não deu certo.

Mas muitos não entregarão os pontos, optando por redefinir seus modelos de forma que as massas das partículas supersimétricas sejam tão grandes que escapariam à detecção no LHC, ou em algum substituto no futuro próximo. (O alcance de um detector depende da energia atingida pelas partículas ao colidirem entre si: quanto maior a energia da colisão, maior a massa das partículas produzidas, consequência direta da famosa fórmula E = mc². Colisores de partículas transmutam energia em matéria, um dos aspectos mais surpreendentes da física moderna. Físicos gostam de brincar que é como se colidíssemos duas bolas de tênis para criar um Boeing 747.)

A possibilidade de redefinição dos parâmetros que definem os modelos teóricos (como a massa das partículas supersimétricas) leva a uma questão filosófica essencial: como determinar a validade duma teoria se não podemos testá-la experimentalmente? Será que deve ser abandonada simplesmente porque, com a tecnologia disponível num determinado momento, é impossível encontrar evidência empírica a seu favor? Nesse caso, quanto tempo devemos esperar por novas tecnologias antes de aposentar a teoria: dez anos? Cinquenta anos? Séculos? Quando paramos de reajustar parâmetros para manter a teoria viável?

Como outro exemplo, considere a teoria do multiverso, que sugere que nosso universo seja apenas um dentre uma multidão de outros universos, separados por distâncias intransponíveis. Alguns cientistas acreditam que essa teoria possa resolver questões complexas sobre nosso universo como, por exemplo, os valores dos parâmetros do Modelo Padrão (massa do elétron e dos quarks, suas cargas elétricas etc.). Mas o preço é alto: os outros universos são inobserváveis diretamente. Mesmo assim, os defensores da ideia do multiverso consideram importante continuar à explorá-la, buscando ao menos por evidência indireta da existência de outros universos.

SEM PROVAS

O time oposto, no entanto, tem suas objeções. Considere uma teoria que explica o que podemos detectar supondo a existência de entidades que não podemos detectar (como outros universos ou as dimensões extras das teorias das supercordas). Qual o status que devemos atribuir a essas entidades? Devemos considerá-las tão reais quanto as partículas do Modelo Padrão? Nesse caso, como justificar cientificamente que sua existência é diferente da de outras entidades inobserváveis que podem ser propostas para explicar a realidade, como fadas ou duendes? (O leitor pode escolher a sua favorita.)

É bom lembrar dos epiciclos, os círculos imaginários que Ptolomeu propôs por volta de 150 d.C. para descrever o movimento dos planetas. Mesmo que não houvesse qualquer evidência de sua existência, epiciclos explicavam satisfatoriamente o que os astrônomos da Grécia Antiga observavam nos céus. Com isso, muitos os consideravam reais. Passaram-se mais de 1.500 anos até que os epiciclos começassem a ser vistos como ficção, nada mais do que uma ferramenta que possibilitava o cálculo das órbitas planetárias. Será que as supercordas e o multiverso, frutos de algumas das mentes mais brilhantes do planeta, não passam de versões modernas dos epiciclos?

No final de maio, cientistas reiniciaram as pesquisas no LHC, após uma parada de dois anos. A interrupção foi proposital, para que a energia das colisões entre as partículas fosse aumentada, chegando agora quase ao dobro do valor anterior. Com isso, físicos poderão explorar as propriedades do bóson de Higgs com mais detalhes, inclusive determinando se ele é ou não composto por partículas ainda menores. Mas o grande foco das novas colisões é a busca por partículas supersimétricas.

Caso sejam descobertas, será um enorme triunfo da física moderna, um dos maiores de todos os tempos. Mas caso nenhum indício de supersimetria seja encontrado, os próximos passos serão difíceis e plenos de controvérsia, desafiando não só o modo como avança o conhecimento nessa área mas também o papel do método científico no futuro da ciência em geral.

Nota: Este texto é uma versão ampliada do publicado pelo autor, em coautoria com o físico Adam Frank, no jornal “The New York Times”, em 7 de junho.

MARCELO GLEISER, 56, é professor de física, astronomia e filosofia natural no Darmouth College, nos EUA. Seu livro mais recente é “A Ilha do Conhecimento” (Record).

Publicado em Artigos sugeridos | Marcado com | Deixe um comentário