Parceiros

domingo, 25 de agosto de 2013

Proposta que regulamenta o funcionamento de meios de comunicação é lançada na Câmara

 proposta de projeto de lei (PL) que regulamenta o funcionamento de meios de comunicação, conhecida como Lei da Mídia Democrática, foi lançada ontem (22), na Câmara dos Deputados pelo Fórum Nacional pela Democratização da Comunicação (FNDC). O texto, proposto por meio de iniciativa popular, terá de reunir cerca de 1,3 milhão de assinaturas para ser validado e tramitar no Congresso. Os nomes já começaram a ser colhidos.
De acordo com a proposta, caso chegue a entrar em vigor, fica proibida a concessão de meios de comunicação a pessoas com cargo eletivo – como deputados e senadores – e a grupos ligados a igrejas. Também é vedada a manutenção de mais de cinco canais de comunicação a uma mesma empresa.
O objetivo da medida é regulamentar artigos da Constituição que versam sobre comunicação. Caso o texto proposto seja aprovado, as novas normas valem para atuação de meios de comunicação social, não produzidos por usuários, em diversos meios –  rádio e TV abertas, rádio e TV digitais e webTV.
Para a deputada Luiza Erundina (PSB-SP), a proposta de iniciativa popular é o resultado de um amplo debate ao longo dos anos. “Esse PL vêm de encontro à legitimidade e à representatividade das forças mais comprometidas com uma reforma estrutural importante, que é a reforma dos meios de comunicação”, explicou a deputada. Para ela, o debate que será lançado à sociedade será o resultado mais importante da medida.
Além das limitações às concessões, a proposta proíbe o aluguel de espaços da grade de programação – o que ocorre com frequência, atualmente – e a transferência de licença.
O texto também regulamenta o que são os três sistemas de comunicação estabelecidos pela Constituição: o privado, o público e o estatal. O privado é o sistema de propriedade privada de natureza institucional e formato de gestão restritos; o público, que tem caráter público ou associativo, gerido de forma participativa, com a possibilidade de acesso dos cidadãos e estruturas submetidas a regras democráticas; e o estatal – responsável por transmitir os atos dos Três Poderes e de instituições vinculadas ao Estado.
Em relação ao conteúdo, a proposta propõe o controle dos conteúdos veiculados, por meio da participação popular em audiências públicas, do fomento à cultura e à diversidade e da criação do Conselho Nacional de Políticas de Comunicação (CNPC).
Esse conselho seria formado por representantes do Executivo, do Legislativo, do Ministério Público, de prestadores de serviço de comunicação eletrônica, de entidades de trabalhadores, da comunidade acadêmica, de instituições científicas, de organizações da sociedade civil e de movimentos sociais.
Para a proposta virar projeto, devem ser reunidas assinaturas de 1% do eleitorado nacional, com o mínimo de 0,3% dos eleitores de cinco unidades da Federação. Dessa forma, por meio da iniciativa popular, o cidadão dá o seu aval ao projeto em questão, expressando diretamente a sua vontade, por meio da validação da assinatura com os respectivos números de título de eleitor, zonas e seções eleitorais. O texto está disponível, na íntegra, na página da campanha de coleta de assinaturas na internet.
“Regular não é censurar, é dar mais liberdade”, disse a deputada Jandira Feghali (PCdoB-RJ), sobre críticas de que a proposta é uma tentativa de censurar os meios de comunicação. “A concentração de mídia no país mostra que a dominação de classe é enorme. Criar o instrumental necessário para democratizar a comunicação é vital”, completou o deputado Ivan Valente (PSOL-SP).
Fórum diz que Lei da Mídia Democrática não é censura
Já assinado por mais de 50 mil pessoas, o projeto de lei de iniciativa popular que propõe a regulamentação do funcionamento de meios de comunicação não representa censura prévia nem fere o direito à liberdade de expressão, segundo defendeu hoje (22) a coordenadora do Fórum Nacional pela Democratização da Comunicação (FNDC), Rosane Bertotti.
Segundo Rosane, a Lei da Mídia Democrática, como está sendo chamado o projeto, pretende ampliar a liberdade de expressão no Brasil e tornar mais transparente o processo de concessões de rádio e TV. [A proposta] debate a transparência, o respeito à pluralidade e à diversidade, além do não incentivo à violência e à homofobia”, disse Rosane.
Para ela, a liberdade de expressão é essencial na democracia, mas não pode se sobrepor a outros direitos. “Não existe um direito que prevaleça sobre outro. A liberdade de expressão não é um direito absoluto. A concessão é pública e o direito de liberdade de expressão não pode atingir outros direitos humanos, que são fundamentais”.
O projeto de iniciativa popular, entre outros pontos, estabelece a proibição da concessão de meios de comunicação a pessoas com cargo eletivo – como deputados e senadores – e a grupos ligados a igrejas. Também veda o controle de mais de cinco canais de comunicação por uma mesma empresa.
A coordenadora do FNDC prevê ataques ao projeto por setores “poderosos” da sociedade. “O principal impacto do projeto é ampliar direitos e garantir a liberdade de expressão para todos os brasileiros. Agora, a partir do momento em que há um monopólio, e no nosso projeto se pede o fim desse monopólio e da propriedade cruzada, lógico que terá um impacto”, frisou.
Matérias de Carolina Sarres e Ivan Richard, da Agência Brasil, publicadas pelo EcoDebate, 23/08/2013
+ Mais Informações ››››››

FAO levará experiência brasileira com merenda escolar para América Latina e África

A Organização das Nações Unidas para a Alimentação e a Agricultura (FAO) vai levar a experiência do Brasil em alimentação escolar para países da América Latina e África. A intenção é que o Programa Nacional de Alimentação Escolar (Pnae) sirva de base para que os países aprimorem os próprios programas de oferta de merenda.
“O objetivo é fortalecer o programa de alimentação escolar que já existe nos países. Não queremos iniciar programa nenhum. Queremos fortalecer os programas a partir da realidade deles. Levamos os desafios e oportunidades que já conhecemos no Brasil, tudo dentro do respeito e da soberania de cada país”, explica a coordenadora do projeto Fortalecimento dos Programas de Alimentação Escolar da FAO Brasil, Najila Veloso.
Segundo Najila, o foco na alimentação escolar é fundamental pois a escola é estratégica para a discussão da segurança alimentar e nutricional das pessoas. A cooperação foi uma iniciativa brasileira e teve início em 2009 com cinco países da América Latina. Atualmente, 11 países fazem parte do projeto que atende a mais de 19 milhões de pessoas.
Um acordo firmado na semana passada incluiu a África no programa com expectativa de investimento de quase US$ 2 milhões. A América Latina recebeu no ano passado US$ 4 milhões para o desenvolvimento do projeto.
Como parte do programa, a FAO elaborou um estudo que foi apresentado esta semana para os gestores e sociedade civil dos países latino-americanos. Os países foram analisados com base em 16 diretrizes consideradas essenciais pela organização, para um programa de alimentação escolar de sucesso.
Com o levantamento, diz a coordenadora, o Brasil pode também avaliar o próprio programa. “A infraestrutura das nossas escolas está aquém da de alguns outros países. Aqui não temos refeitórios como referência na construção das escolas, como acontece em alguns países da América Latina. Nossos meninos ainda comem em pé, ainda usam pratos e talheres de plástico [mais difíceis de lavar] e muitas vezes têm que usar colheres para comer alimentos que exigem garfo e faca, como carnes”, diz Najila.
De acordo com o Fundo Nacional de Desenvolvimento da Educação (FNDE), responsável pelo Pnae, o Brasil atende diariamente 43 milhões de alunos e serve 130 milhões de refeições em creches e centros de ensino. Sobre a origem dos alimentos, pelo menos 30% vem da agricultura familiar.
A coordenadora do Pnae, Albaneide Peixinho, destaca os avanços do programa nos últimos dez anos – como a ampliação de atendimento para creche e ensino médio e lembra que, quando criado, o Pnae atendia a apenas alunos do ensino fundamental e da pré-escola.
Além disso, Albaneide ressalta a importância da agricultura familiar para o envolvimento da comunidade com a escola. “Grande parte desses agricultores é analfabeto e passa a frequentar o ambiente escolar, a entender a escola como um espaço público. Com eles, os estudantes aprendem sobre os alimentos. Os que moram nas cidades entendem que um frango não vem do supermercado, um ovo não vem da indústria, que existem pessoas por trás disso”.
O orçamento do Pnae para 2013 é de R$ 3,5 bilhões, para beneficiar estudantes da educação básica e de jovens e adultos. Parte desse valor, R$ 1,05 bilhão deve ser investido na compra direta de produtos da agricultura familiar.
Edição: Denise Griesinger
Reportagem de Mariana Tokarnia, da Agência Brasil, publicada pelo EcoDebate, 23/08/2013
+ Mais Informações ››››››

Para físico do Greenpeace, falta monitoramento adequado na área de risco da usina de Fukushima

Usina Nuclear de Fukushima‘Controle em Fukushima é insuficiente’, diz físico do Greenpeace

Cerca de 300 toneladas de água altamente radioativa vazaram de um tanque de armazenamento na usina nuclear. Segundo Heinz Smital, falta de monitoramento adequado na área de risco complica situação.
A operadora Tepco, responsável pela usina de Fukushima, encontrou nesta quinta-feira (22/08) novos focos de radiação perto dos tanques de armazenamento de água contaminada. A descoberta elevou os temores de novos vazamentos, já elevados desde a véspera, quando foi anunciado que 300 toneladas de água radioativa haviam vazado nos últimos dias.
Para Heinz Smital, físico nuclear e especialista do Greenpeace da Alemanha, há uma falha sistemática de vigilância na usina. Em entrevista à DW, ele diz que a queda no nível de água radioativa nos tanques deveria ter sido detectada bem mais cedo.
“É necessário um maior monitoramento dessas centenas de tanques, cada um com mil toneladas de líquido altamente radioativo. O controle ainda é insuficiente”, afirma.
DW: O vazamento radioativo das últimas semanas foi considerado o maior desde a catástrofe com os reatores de Fukushima, em março de 2011. Qual é a real seriedade do incidente?
Heinz Smital: É um incidente grave e que poderia ter sido evitado. Em princípio, o importante era manter a água em tanques de aço. O vazamento só foi descoberto depois que o nível da água diminuiu em metros dentro do tanque. Isso mostra que o monitoramento foi totalmente inadequado.
O que deveria ser feito?
Seria preciso aumentar a vigilância. O líquido é altamente radioativo, e uma queda no nível de água deveria ter sido detectada bem mais cedo, e não depois de uma grande quantidade ter desaparecido. Pelas contas, foram cerca de 300 toneladas, e a radiação é de 80 milhões de becquerel por litro – um nível muito elevado.
O que significa esse valor para uma pessoa?
Heinz Smital, especialista do Greenpeace
Essa é uma dose direta que foi medida em 100 millisieverts por hora perto da água vazada. Uma pessoa aguentaria por pouco tempo essas condições. O limite normal para a população é de 1 milisievert por ano – no caso de trabalhadores de usinas, 20 millisieverts. Isto significa que uma pessoa receberia uma dose muito elevada em uma hora, mas que só suportaria cerca de cinco minutos no local. Segundo a autoridade reguladora nuclear japonesa, os níveis de radiação fora da usina em Fukushima estão inalterados.
Qual a credibilidade desta declaração?
A água provavelmente se infiltrou no solo, mas provavelmente há também fluxos de águas subterrâneas. Isso significa que a radiação fora da usina aumentará cada vez mais com o tempo. O que não se pode esquecer é que, mesmo que tenha vazado muita radiação, a maior parte ainda continua nos reatores. Apenas uma pequena porcentagem foi libertada. E caso aumente a quantidade de água subterrânea, pode ser que estas fontes alcancem distâncias mais longas.
Qual a probabilidade de a água contaminada chegar ao Pacífico?
Sempre houve sinais de que radioatividade é descarregada no mar. A Tepco ainda tentou negar o fato, embora existam evidências. Há algumas semanas, a Tepco acabou admitindo que, há dois anos, cerca de 300 toneladas de líquido altamente radioativo são descarregadas no mar todos os dias. A partir do momento em que a substância foi depositada no mar, ela se espalhou. No entanto, o efeito de distribuição não foi tão grande como esperado. Nos anos 50 e 70 havia a esperança de que resíduos nucleares se diluiriam de tal maneira que não haveria mais perigo de contaminação. Mas isso não é verdade. Por meio de correntes oceânicas e pela absorção feita por plantas e pelo plâncton, a radioatividade pode aumentar.
Ainda de acordo com a Tepco, o conteúdo do tanque danificado será bombeado para tanques intactos. Além disso, o solo radioativo e água vazada devem ser removidos.
Isso é o suficiente?
Esta é a medida a ser tomada, se não se sabe a origem do vazamento. Mas, no geral, é necessário um maior monitoramento dessas centenas de tanques, cada um com mil toneladas de líquido altamente radioativo. O controle ainda é insuficiente. Desde o início, a gestão da crise financeira e a política de informação da Tepco e do governo japonês receberam críticas pesadas.
O acidente pode servir como lição para o Japão?
Enquanto o foco for ativar novos reatores, a experiência nuclear, que está em atividade no momento no Japão, continuará a ser utilizada incorretamente. O governo vai continuar tentado minimizar a gravidade da situação em Fukushima. Mas os fatos vão voltar a aparecer. É uma situação muito difícil, que deve ser encarada de outra forma.
Matéria de Esther Felden (mdb), da Agência Deutsche Welle, DW, publicada pelo EcoDebate, 23/08/2013
+ Mais Informações ››››››

Operadora da usina nuclear de Fukushima eleva índices de contaminação do mar e luta para conter vazamentos

Usina de Fukushima, após o desastre nuclear
Usina de Fukushima, após o desastre nuclear – Em 11 de março de 2011, o mundo soube da tragédia de Fukushima: um fortíssimo terremoto e um tsunami de grandes proporções, a que se seguiu a explosão de uma usina nuclear com todas as consequências de um acidente nuclear: a difusão de radioatividade, que permanecerá ativa durante anos, ameaçando muitas gerações. Foto: DW

Em meio a uma batalha para conter vazamentos, a operadora da usina nuclear de Fukushima, Tokyo Electric Power (Tepco), estima que desde o início da crise atômica, em 2011, até 30 trilhões de becquerels de material radioativo da central podem ter atingido o mar. Matéria de Javier Picazo Feliú, da EFE, no UOL Notícias.
Segundo a Tepco, podem ter vazado para a baía artificial em frente aos reatores da usina até 10 trilhões de becquerels de estrôncio e 20 trilhões de becquerels de césio desde a crise atômica originada após o tsunami de 2011.
O cálculo aproximado da operadora, que é muito superior ao limite permitido, foi realizado após a análise dos níveis radioativos detectados na água em frente à usina e nos vazamentos ocorridos desde o acidente.
No entanto, a operadora realizou a avaliação excluindo os dois primeiros meses da crise nuclear. Estimativas divulgadas durante este período revelaram que cerca de 15 trilhões de becquerels podem ter vazado da central para o mar.
Além disso, a Tepco admitiu recentemente um novo vazamento, de 300 toneladas de água altamente contaminada de um dos mais de 1.000 tanques que existem na central para reter água poluída.
Os analistas da usina também não descartam que este novo vazamento, que se une aos existentes no líquido sob os reatores atômicos, possa ter chegado ao mar através de um sulco localizado a 50 metros do tanque defeituoso.
A enorme quantidade de água radioativa acumulada sob os reatores da central, que aumenta em cerca de 400 toneladas diárias devido ao vazamento dos aquíferos ao redor da usina, representa o principal desafio dos 3.500 operários que trabalham para pôr fim à crise.
Em seus trabalhos para selar a usina, processo que deverá durar mais de 40 anos, os técnicos da central utilizam a água armazenada no processo para esfriar os reatores, algo imprescindível para mantê-los estáveis.
Segundo o governo, a central vaza ao mar cerca de 300 toneladas de água radioativa, algo que representa um grave problema tanto ambiental como para a indústria pesqueira da região.
Uma das cooperativas de pesca da cidade de Iwaki, ao sul da central de Fukushima, anunciou ontem que finalmente abandonará seus planos para retomar a atividade na área. A organização esperava voltar a pescar em 5 de setembro como um teste para avaliar se a atividade poderia ser reiniciada.
“Achamos que nossa decisão é lógica, após ter escutado que estão ocorrendo vazamentos de água contaminada ao mar um dia após outro”, disse à agência “Kyodo” o representante da cooperativa, Masakazu Yabuki.
Diante da gravidade dos vazamentos radioativos, a Autoridade de Regulação Nuclear do Japão (NRA) propôs elevar o problema de água contaminada para o nível de alerta 3 na Escala Internacional Nuclear e de Fatos Radiológicos (INES), o que representa o pior incidente em Fukushima desde a explosão da crise, em 2011.
EcoDebate, 23/08/2013
+ Mais Informações ››››››

Especialistas constatam câncer de tireoide em pessoas expostas à radiação após o acidente em Fukushima

Usina de Fukushima, após o desastre nuclear
Usina de Fukushima, após o desastre nuclear – Em 11 de março de 2011, o mundo soube da tragédia de Fukushima: um fortíssimo terremoto e um tsunami de grandes proporções, a que se seguiu a explosão de uma usina nuclear com todas as consequências de um acidente nuclear: a difusão de radioatividade, que permanecerá ativa durante anos, ameaçando muitas gerações. Foto: DW

Especialistas concluíram que após os acidentes radioativos na Usina Nuclear de Fukushima Daiichi, no Nordeste do Japão, foram constatados casos de câncer de tireoide em 18 pessoas e sintomas da doença em 25 – todas com menos de 18 anos. A pesquisa envolve a análise de 360 mil crianças e adolescentes com menos de 18 anos.
O coordenador da comissão que faz o estudo, Hakuto Hoshi, disse que não pode confirmar se os casos têm relação direta com o acidente nuclear de Fukushima. Segundo ele, foi criado um grupo de especialistas para analisar exaustivamente a situação.
Em julho, um balanço divulgado indicava 12 casos de câncer de tireoide e 15 suspeitos por apresentarem características da doença. Em 2011, por meio de exames em 40 mil crianças e adolescentes, foram detectados sete casos de câncer de tireoide em decorrência da exposição à radiação. Em 2012, foram constatados cinco casos em grupo de 134 mil crianças e adolescentes.
No final de maio, a Organização das Nações Unidas (ONU) apresentou estudo preliminar do Comitê Científico sobre os Efeitos da Radiação Atômica (cuja sigla é Unscear) que concluiu que os níveis de radiação em Fukushima foram inferiores aos registrados em Chernobyl, no Norte da Ucrânia, que sofreu um acidente de gravidade semelhante em 1986.
Em 2011, o Japão sofreu uma série de terremotos, seguidos por tsunami, que provocaram vazamentos e explosões em Fukushima. Em decorrência dos acidentes radioativos, o governo do Japão esvaziou as cidades em torno da usina e passou a monitorar os moradores da região.
*Com informações da agência pública de notícias de Portugal, Lusa
Edição: Graça Adjuto
Reportagem de Renata Giraldi*, da Agência Brasil, publicada pelo EcoDebate, 22/08/2013
+ Mais Informações ››››››

Pesquisadores criam biossensor para detectar pesticida

Pesquisadores criam biossensor para detectar pesticida
Princípio básico de sensor biológico para identificar pesticida altamente tóxico em água e alimentos também deu origem a um teste rápido de dengue (IFSC/USP)

Pesquisadores do Instituto de Física de São Carlos (IFSC) da Universidade de São Paulo (USP), em colaboração com colegas da Universidade Federal do Mato Grosso (UFMT), criaram um sensor biológico (biossensor) que detecta em minutos, na água, no solo e em alimentos, a presença de um pesticida altamente tóxico que está sendo banido no Brasil, mas que ainda é usado em diversas lavouras no país: o metamidofós.
Desenvolvido no âmbito do Instituto Nacional de Eletrônica Orgânica (INEO) – um dos INCTs apoiados pela FAPESP e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) no Estado de São Paulo –, o sensor pode ser adaptado para detecção de outros tipos de pesticidas, afirmam os pesquisadores. O princípio básico do dispositivo também deu origem a um possível novo teste rápido para detecção de infecção pelo vírus da dengue.
“Escolhemos o metamidofós para ser detectado pelo sensor porque, apesar de já ter sido banido em diversos países, há indícios do uso desse pesticida, extremamente tóxico, sobretudo no Estado do Mato Grosso”, disse Nirton Cristi Silva Vieira, pós-doutorando no IFSC (com Bolsa da FAPESP) e um dos orientadores do projeto do biossensor de pesticida e do teste rápido de dengue, à Agência FAPESP.
Vieira conta que o metamidofós é utilizado principalmente em lavouras de soja para matar lagartas e percevejos que atacam a oleaginosa. O pesticida penetra facilmente o solo e os lençóis freáticos e, ao contaminar a água e os alimentos, atua no sistema nervoso central dos seres vivos, inibindo a ação da acetilcolinesterase – enzima que promove as ligações (sinapses) dos neurônios.
Nos humanos, além de ser prejudicial para as funções neurológicas, o metamidofós também pode causar danos nos sistemas imunológico, reprodutor e endócrino e levar à morte.
Em conjunto com Francisco Eduardo Gontijo Guimarães, professor do IFSC e orientador de sua pesquisa de doutorado, Vieira orientou Izabela Gutierrez de Arruda, durante o seu mestrado na UFMT, a desenvolver um teste rápido e portátil para detectar a presença de metamidofós utilizando a própria enzima acetilcolinesterase.
Para isso, os pesquisadores desenvolveram um sensor de pH, que mede prótons (íons H+), constituído por uma lâmina de vidro – composta por camadas de óxido de silício em escala nanométrica (da bilionésima parte do metro) –, na qual a acetilcolinesterase é imobilizada, mantendo alta atividade.
Ao colocar o sensor em uma solução – como extrato de soja ou de tomate – contendo pequenas concentrações de metamidofós –, a atividade da acetilcolinesterase é inibida e a enzima produz menos prótons do que produziria se não estivesse na presença do pesticida.
Essa diferença da quantidade de prótons produzidos pela enzima presente no sensor, quando exposta a diferentes concentrações do pesticida, é medida por meio de um pequeno aparelho, também desenvolvido pelos pesquisadores, no qual a película sensora é introduzida.
Semelhante a um medidor de glicose utilizado por diabéticos, o aparelho indica o nível de atividade da enzima e, consequentemente, o índice de contaminação por metamidofós da amostra analisada, com base em padrões de tensão medidos pelos pesquisadores com diferentes concentrações de acetilcolina – substância que atua como neurotransmissor e com a qual o pesticida se assemelha muito.
“À medida que introduzimos o sensor em soluções com diferentes concentrações de pesticida, a atividade da acetilcolinesterase (medida em termos de diferença de potencial) variava e conseguimos quantificá-la”, explicou Vieira.
Outras aplicações
De acordo com Vieira, o sensor pode ser adaptado para detectar outras categorias de pesticidas das classes dos carbamatos e dos organofosforados – à qual pertence o metamidofós –, que também inibem a ação da acetilcolinesterase.
Para isso, no entanto, seria preciso medir a atividade da enzima em diferentes concentrações de cada pesticida especificamente, de modo que o sinal de um não mascare o do outro.
“O padrão de sinal elétrico em outras categorias de pesticidas pode variar, porque o mecanismo de inibição da ação da acetilcolinesterase para cada um deles é diferente. Por isso, seria preciso recalibrar o sensor para também poder detectá-los”, disse Vieira.
Segundo o pesquisador, o biossensor já despertou o interesse de fabricação e comercialização de uma empresa de biotecnologia de Minas Gerais. O custo estimado do aparelho – incluindo o sensor e o medidor – deverá ser entre R$ 100 e R$ 200 a unidade.
O componente que mais encarece o produto hoje, segundo os pesquisadores, é a acetilcolinesterase. Para tentar substituí-la, eles iniciarão nos próximos meses um processo com o intuito de tentar obter de frutas – como o abacate e a banana – um outro tipo de enzima com propriedades semelhantes às da acetilcolinesterase.
“Compramos hoje a enzima purificada, que é bem cara. A ideia é obter de frutas o extrato bruto de uma enzima com atividade semelhante à da acetilcolinesterase para ser utilizada em medições de concentrações de pesticidas”, disse Vieira.
Atualmente, de acordo com os pesquisadores, as análises de contaminação por pesticidas no Estado de Mato Grosso são enviadas para São Paulo ou Rio de Janeiro e levam dias para serem processadas.
Por meio do biossensor, será possível diminuir o custo e tempo de obtenção dos resultados para poucos minutos, ressaltam os pesquisadores. “Para analisar amostra de solo contaminado, por exemplo, basta misturá-lo com água para decantar a terra, deixar o sensor imerso por 15 minutos na solução contendo o pesticida dissolvido e colocá-lo no medidor para obter o índice de contaminação”, exemplificou Vieira.
A ideia do desenvolvimento do sensor – surgida durante um encontro entre os pesquisadores do IFSC com colegas da UFMT no INEO – resultou na primeira patente depositada pela universidade mato-grossense nos 40 anos de existência da instituição.
“Em uma das reuniões anuais do INEO entramos em contato com um grupo pesquisadores da UFMT que tinha a ideia de desenvolver um sensor de pesticida pelo fato de Mato Grosso ser o Estado que mais produz grãos no país atualmente e se usar muito metamidofós nas lavouras”, contou Guimarães.
“Na época, Vieira estava pesquisando exatamente sobre biossensores e decidimos iniciar uma colaboração com o grupo da UFMT – liderado pelo professor Romildo Jerônimo Ramos – para desenvolver esse biossensor de pesticida”, disse.
Detecção da dengue
Em seu atual pós-doutorado, Vieira pretende desenvolver biossensores que, em vez de enzimas, como a usada no biossensor de metamidofós, utilizem anticorpos para detecção de proteínas marcadoras de contaminação pelo vírus da dengue e de início de infarto agudo do miocárdio.
Em parceria com uma empresa brasileira de biotecnologia, Vieira desenvolveu – com a estudante de mestrado no IFSC Alessandra Figueiredo e o professor Guimarães – um sistema que detecta a proteína NS1 secretada pelo vírus da dengue nos primeiros dias de infecção. “Essa proteína marca a presença do vírus da dengue e, consequentemente, o início da infecção”, disse.
De acordo com ele, a maioria dos sensores existentes hoje voltados a detectar a infecção pelo vírus da dengue faz isso de forma indireta, por meio de um anticorpo imobilizado que se liga à proteína NS1 e necessita de um anticorpo secundário, geralmente marcado com outras moléculas.
Com base no mesmo princípio do biossensor para detecção de metamidofós, os pesquisadores desenvolveram um sensor que promete detectar de forma direta e com maior precisão a proteína NS1. “O sensor para detecção de infecção da dengue está em processo de patenteamento. Nós ainda não chegamos a um produto final”, disse Vieira.
Matéria de Elton Alisson, de Agência FAPESP, publicada pelo EcoDebate, 22/08/2013
+ Mais Informações ››››››

Conceito Base Zero promete acabar com escassez de água no Semiárido

Conceito Base Zero
As barragens são construídas de forma simples, sem argamassa ou escavações. FOTO: CID BARBOSA / Diário do Nordeste

O assunto foi discutido recentemente na reunião da SBPC em Recife
Afogados da Ingazeira (PE) Há mais de quase quatro décadas, o engenheiro mecânico José Artur Padilha desenvolve um projeto chamado Conceito Base Zero (CBZ), que promete, dentre outras coisas, resolver o problema da escassez de água na região do Semiárido. Através da construção de barragens subterrâneas em forma de arco romano deitado. Com custo baixíssimo, a água é armazenada debaixo do chão, praticamente livre da salinização e da evaporação que há mais de um século tornam os mananciais de superfícies, como os açudes, fragilizados diante do nosso clima.
A experiência de Zé Artur Padilha, 70 anos, vem sendo realizada nos 600 hectares da Fazenda Caroá, de sua propriedade, em Afogados da Ingazeira, cidade distante 380 quilômetros de Recife e foi adotada pela Agenda 21 na Área de Agricultura Sustentável do Governo Federal.
No último mês de julho, o assunto foi discutido no âmbito da Sociedade Brasileira para o Progresso da Ciência (SBPC). Por ocasião da sua explanação, Padilha apresentou a reportagem sobre o CBZ publicada pelo Diário do Nordeste, no dia sete de abril passado, bem como uma matéria realizada pela TV Diário, através do repórter Flávio Rovere e do cinegrafista José Melo.
Conceito
De acordo com Padilha, o CBZ preceitua que “para obter-se o aproveitamento máximo permanente da energia incidente numa dada área agrícola, é necessário ajustar as condições do terreno aos fluxos naturais da água, favorecer sua retenção sem que se provoque salinização e otimizando o uso da biomassa e dos elementos do solo”.
O engenheiro lembra que “as chuvas quando caem geram enxurradas destrutivas que saem das bacias hidrográficas muito rapidamente e não conseguem recarregar os aquíferos. Para enfrentar essa situação, são construídos açudes, os quais, no entanto, não resolvem a situação e, em certos lugares, até agravam os problemas, devido ao fenômeno da salinização das águas represadas”.
Em relação às barragens, Padilha explica que “têm o formato de arco romano deitado e rampado. São feitas exclusivamente com pedras do próprio local, sem argamassa, arrumadas de modo inteligente, de forma que trabalhem estruturalmente quase a uma compressão pura. Os barramentos, acoplados em série, acabam formando platôs por conta da erosão natural provocada pelas chuvas nas encostas adjacentes”, frisa Padilha.
Segundo ainda o engenheiro, “esses platôs são férteis, possibilitando a produção agropecuária normal, pois a água que escoa rapidamente, fica armazenada muito mais tempo neles, devido à lenta percolação através do solo e dos estragos geológicos imediatamente abaixo e pode ser utilizada durante todo o ano, incluindo o período de estiagem”.
Questionado pela reportagem sobre quantas barragens seriam necessárias para cobrir toda a área de 1.633.200 km² do Semiárido. Zé Artur Padilha diz que, “considerando-se uma topografia com movimentação/variabilidade de altitudes, em média, em toda a região, julgo que seriam necessários de três a quatro barramentos de tamanhos variáveis por hectare. Isso resultaria em 360 milhões de diques-barramentos, entre micro, médias e grande. Esse número parece assustador. Mas, se mobilizarmos 12 milhões de pessoas para construir em média 30 barramentos/pessoa, seriam necessários apenas seis anos para revolucionar todo o Semiárido”.
Custo mínimo
No que diz respeito aos custos, Padilha enfatiza que é uma estimativa difícil “dada a total variabilidade de situações. O custo pode variar desde valores mínimos, por exemplo, R$ 50,00 a R$ 1 milhão, se for no Rio Jaguaribe, por exemplo. O investimento pode parecer alto, mas é mínimo, se levarmos em consideração os benefícios que corrigirão os desperdícios que foram cometidos historicamente com a construção de gigantescos açudes sujeitos à evaporação”.
Tecnologia social
O Conceito Base Zero se enquadra entre as tecnologias sociais, que são ações de pequeno porte com grandes resultados, de baixo custo e que envolvem a mão de obra da própria comunidade.
Zé Artur faz questão de ressaltar que o CBZ deve ser aproveitado juntamente com outras tecnologias que já ajudam o sertanejo a conviver com as adversidades da região. É o caso das cisternas idealizados pela Articulação do Semiárido (ASA) e que foram adotadas pelo governo federal com grande êxito. “Todas essas ações conjuntamente podem mudar o perfil da região”.
Em plena estiagem, constatamos na Fazenda Caroá os efeitos das barragens implantadas por Zé Artur Padilha. Ali, os animais têm água à disposição durante os 365 dias do ano graças a um simples sistema de abastecimento d´água. No ponto alto da propriedade, foi construída uma cacimba entre duas barragens.
É dali que, por meio da força de gravidade, e de 20 quilômetros de encanamento, a água é levada para 50 bebedouros espalhados pela propriedade.
“Os barramentos viabilizaram a acumulação de água no subsolo e a construção do sistema gravitacional de condução, armazenamento e distribuição de água subterrânea rasa. Essa água mostra uma diminuição da salinização natural, devido às lavagens por escoamentos superficiais ou lixiviações (separação do sal) subterrâneas, que a chuva e a topografia favorecem”, conta Padilha.
Microbacia
Sobre os barramentos, o engenheiro diz que é necessário destacar dois pontos. “Eles só devem ser construídos tendo em vista a microbacia como um todo, o que exige um cuidadoso estudo completo de toda a área por parte de construtores treinados. Além disso, exige um compromisso social muito grande. O conhecimento pode ser adquirido em treinamento de um único dia”.
“Nas primeiras enxurradas, será necessário nivelar repetidas vezes a crista afetada pela acomodação das pedras. A manutenção pode ser necessária depois do período inicial caso ocorram chuvas muitos fortes no período”, conclui Padilha.
Condições necessárias
1) Apenas uma pequena área da bacia pode ser explorada para fins agrícolas enfatizando-se uma exploração de culturas permanentes como as de fruticulturas e respeitando as características da microbacia hidrográfica onde está inserida; lembrando que essa microbacia faz parte de uma bacia hidrográfica maior;
2) O tamanho da área agrícola deve ser calculado em função da precipitação e da evapotranspiração anual;
3) A área agrícola deve situar-se a jusante da área preservada;
4) O restante da microbacia deve ser explorado indiretamente mediante a preservação de sua flora original submetida a um extrativismo em proporções racionais da lenha naturalmente morta ou de estacas e mourões para cercas divisórias. Porém a região preservada é explorada indiretamente pelo homem por meio da pecuária extensiva, que exige um manejo adequado para não degradar o ecossistema.
Matéria de Fernando Maia/Diário do Nordeste, socializada pelo Jornal da Ciência / SBPC, JC e-mail 4795.
EcoDebate, 22/08/2013
+ Mais Informações ››››››

Todo entulho de obra é desperdício de dinheiro e recursos naturais, artigo de Fernando de Barros

Resíduos de construção civil, em usina de reciclagem
Resíduos de construção civil, em usina de reciclagem

[EcoDebate] Ao ser obrigado pela legislação ambiental, em especial pela Lei da Política Nacional de Resíduos Sólidos (Lei nº 12.305/2010) e Resolução CONAMA 307/2002, a segregar os resíduos nas obras, é comum que a primeira reação seja adversa.
Em especial quanto aos resíduos classe A, típicos de construção, como restos de concreto, tijolos, argamassas, telhas de barro, olha-se para as inúmeras caçambas de entulho retirados dos pátios e logo começa a reclamação sobre o preço do serviço de caçamba. A novidade agora é criticar também as empresas que fazem o tratamento dos resíduos Classe A – com a trituração para que voltem à cadeia produtiva como agregados, para serem usados na execução de pisos e outros usos não estruturais.
Ao reclamar do custo com o armazenamento, transporte e destinação ambientalmente adequada dos resíduos da construção civil, que de fato oneram as obras, muitas vezes os responsáveis pelas obras esquecem-se de que todo entulho depositado na caçamba é fruto também de erros e omissões na execução dos projetos.
Sim, é preciso reconhecer que boa parte do entulho de obra, resíduos Classe A, é fruto de falhas, muitas das vezes, de engenheiros e arquitetos! Ou o entulho excedente vem da ausência de um projeto bem elaborado, ou da falta de bons projetos complementares e sua compatibilização com o projeto original. Outro problema, muito comum, é a falta de supervisão adequada na execução dos serviços, muitas vezes delegada a mestres de obras ou pedreiros sem treinamento de qualidade.
É preciso ficar claro que em reformas, a geração de entulho é grande, mas muitas vezes inevitável. Fala-se aqui de obras novas, nas quais, com planejamento adequado, é possível evitar muito “quebra quebra” ou retrabalho – e assim minimizar a geração de muito entulho. Além disso, mais caro que o custo da destinação dos resíduos é o custo dos materiais desperdiçados e da mão de obra que terá que ser paga novamente para refazer o trabalho antes mal feito.
Todo resíduo é desperdício, dinheiro jogado fora. Antes de reclamar do custo da destinação ambientalmente correta dos resíduos, é preciso rever conceitos.
Para empresas que querem melhorar seu desempenho quanto à redução de desperdício e quanto à geração de resíduos, é indispensável que seja promovido treinamento de qualidade nas obras. Para isso, destaca-se o papel do Serviço Nacional de Aprendizagem Industrial – SENAI, que está à disposição também para o desenvolvimento de profissionais da construção civil.
Providenciar projetos de arquitetura e projetos complementares bem elaborados também melhoram a performance. Outra forma é promover minuciosa e atenta supervisão da execução da obra e o seu monitoramento. Um exemplo é implantar programa de redução de desperdício desde o início da obra, com metas de redução de número de caçambas por metro quadrado de obra construída. Só assim, com o compromisso e responsabilidade dos profissionais do setor, será possível reduzir a geração de entulhos e melhorar a segregação dos resíduos da construção civil na fonte, na obra.
Fernando de Barros é engenheiro civil, especialista em Planejamento e Gestão Ambiental, mestre em Engenharia de Edificações e Saneamento e responsável técnico da Master Ambiental.www.masterambiental.com.br
EcoDebate, 22/08/2013
+ Mais Informações ››››››

Especialista diz que falta orientar consumidores sobre benefícios dos orgânicos

orgânicos

Em entrevista ao programa Revista Brasil, da Rádio Nacional de Brasília, o coordenador executivo do Projeto Organics Brasil, Ming Liu, destacou que muitos consumidores acreditam que o único benefício do produto orgânico é a ausência de agrotóxico. “O conceito de produtos orgânicos vai muito mais além do que simplesmente a questão da seguridade dos alimentos. Vai pelo conceito de sustentabilidade, do trabalho que envolve toda a sua cadeia, não somente na agricultura, mas no segmento de processamento e industrialização”, disse. Confira a entrevista.
Apresentação Valter Lima, da Radioagência Nacional / EBC.

EcoDebate, 21/08/2013
+ Mais Informações ››››››

Fracking, para extração do gás de xisto, é relacionado a terremotos em uma cidade Ohio, EUA

Fracking (fratura hidráulica), imagem em www.gaslandthemovie.com
Fracking (fratura hidráulica), imagem em www.gaslandthemovie.com

Desde que os registros começaram, em 1776, o povo de Youngstown, Ohio, nunca experimentou um terremoto. No entanto, a partir de janeiro de 2011, 109 tremores foram registrados e nova pesquisa [Induced seismicity associated with fluid injection into a deep well in Youngstown, Ohio], publicada na Geophysical Research-Solid Earth, revela como isso pode ser o resultado do fracking.
Em dezembro de 2010, Northstar 1, construído para bombear os resíduos líquidos produzido pelo fracking, no estado vizinho da Pensilvânia, entrou em operação. No ano que se seguiu, os sismógrafos em torno de Youngstown registraram 109 sismos, sendo que o mais forte foi um terremoto de magnitude 3,9 em 31 de dezembro de 2011.
A preocupação com a perfuração de gás natural em formações de xisto, que sustentam grande parte do Nordeste, é crescente. Para extrair o gás, uma mistura de água, areia e produtos químicos é bombeada sob alta pressão em rochas de xisto, em um processo chamado de fraturamento hidráulico, ou fracking. Uma vez que o gás tenha sido removido, as águas residuais são recicladas ou transportadas para fora do local e injetadas no subsolo. As infiltrações de água pressurizada, através de rachaduras profundas abaixo do solo, às vezes podem causar terremotos em linhas de falhas antigas.
Ohio é o ‘lar’ de 177 desses poços de descarte, incluindo o de Youngstown, que fica numa região sismicamente dormente na fronteira com o estado da Pensilvânia. Os primeiros rumores surgiram em março de 2011, vários meses após a injeção de fracking resíduos da Pensilvânia ter começado. Nove pequenos tremores se seguiram. No final de novembro, as autoridades de Ohio pediram para os cientistas monitorarem a área com instrumentos móveis, que poderiam fornecer uma localização mais precisa dos terremotos subseqüentes.
Os autores do estudo analisaram os terremotos em Youngstown, identificando que seu início, interrupção, e até mesmo quedas temporárias em atividade estavam relacionados à atividade no Northstar. O primeiro terremoto registrado na cidade ocorreu 13 dias após o início do bombeamento e os tremores cessaram logo após o Departamento de Recursos Naturais Ohio determinar que a instalação parasse a operação em dezembro de 2011.
A atividade sísmica nula foi correlacionada com feriados como o Memorial Day, o Quatro de Julho, Dia do Trabalho e Ação de Graças, bem como de outros períodos em que a injeção no poço foi temporariamente interrompida.
“Nos últimos anos, os resíduos líquidos gerados durante a produção de gás de xisto – fraturamento hidráulico, aumentaram de forma constante nos Estados Unidos. Descobrimos que os terremotos foram desencadeados pela injeção de fluido de resíduos em um poço profundo em Youngstown, Ohio, durante janeiro 2011 -. Fevereiro 2012. Descobrimos que o aparecimento de terremotos e de sua cessação foram relacionados à atividade no Northstar, uma injeção poço profundo. Os terremotos foram centrados em falhas do subsolo perto do poço de injeção. Estes choques ocorreram, provavelmente, devido ao aumento da pressão da injeção profunda de águas residuais, o que destabilizou a falha existente “, disse o Dr. Won-Young Kim. “Ao longo de 2011, os tremores de terra migraram do leste para o oeste ao longo do comprimento da falha, um indicativo de que os terremotos foram causados ‘pela expansão da frente de pressão’.”
Induced seismicity associated with fluid injection into a deep well in Youngstown, Ohio
Won-Young Kim*
Article first published online: 19 JUL 2013
DOI: 10.1002/jgrb.50247
©2013. American Geophysical Union. All Rights Reserved.
Issue
Journal of Geophysical Research: Solid Earth
Volume 118, Issue 7, pages 3506–3518, July 2013
Por Henrique Cortez, do EcoDebate, com informações de Ben Norman, do Sciencenewsroom e Kim Martineau, do Lamont-Doherty Earth Observatory

Ecodebate, 21/08/2013
+ Mais Informações ››››››

20/08, a Terra já esgotou ‘cota anual’ de recursos naturais

Ontem, 20/08, a Terra já esgotou 'cota anual' de recursos naturais 
Esgotamento dos recursos renováveis do planeta chega mais cedo a cada ano, segundo estimativa de ONG. Brasil ainda está entre os poucos países que consomem menos do que repõem.
Um estudo divulgado pela ONG Global Footprint Network mostrou que, se a humanidade consumisse apenas o que a natureza tem capacidade de regenerar no planeta no intervalo de um ano, já teria esgotado, nesta terça-feira (20/08), a mais de quatro meses de 2014, os recursos disponíveis.
A data limite, chamada pela organização anualmente de Dia da Sobrecarga, chega este ano dois dias mais cedo do que em 2012. Segundo Roland Gramling, representante da ONG WWF na Alemanha, se a situação continuar assim, em 2050, os seres humanos vão precisar do equivalente a três planetas Terra para suportar um consumo tão alto.
“O consumo normal de recursos naturais por pessoa é de 1,8 hectares por ano. Mas hoje em dia, uma pessoa costuma utilizar 4,8 hectares na Alemanha, por exemplo. Um americano chega a utilizar 7 hectares por ano. Países desenvolvidos são os que mais gastam”, diz Gramling à DW Brasil.
A Global Footprint Network começou a calcular o Dia da Sobrecarga há uma década, mas centraliza suas primeiras análises a partir de 1961. Ela usa o conceito de “pegada ecológica”, uma medição objetiva do impacto do consumo humano sobre os recursos naturais.
Especialistas afirmam que, em 2050, os seres humanos vão precisar do equivalente a três planetas terra para suportar um consumo tão alto.
O Brasil está entre os países credores, ou seja, que consomem menos do que repõem. Com ele estão ainda Canadá, Indonésia, Madagascar, Suécia e Austrália. O restante consumiu e ainda passou dos limites.
Entre os fatores que contribuem para que o Brasil fique entre os países que exploram menos a natureza estão a grande área florestal brasileira, concentrada especialmente na Amazônia, e a densidade demográfica do país, que é uma das menores do mundo.
“A matriz energética do Brasil, comparada com outros países, é bem maior, o que protege o planeta de uma certa forma”, afirma Michael Becker, superintendente de Conservação do WWF-Brasil.
Energia renovável como saída
Para a WWF, que faz o cálculo da pegada ecológica no Brasil, a saída mais rápida seria investir em energias renováveis, não só em países desenvolvidos. Uma redução significativa no consumo de carne por pessoa também ajudaria.
“Nós ainda temos floresta e água, mas nós estamos devendo muito à natureza. Nós pegamos emprestado todo o ano, mas não conseguimos pagar de volta”, diz Gramling.
Segundo coordenador da WWF Brasil, qualidade do consumo dos produtos no Brasil precisa melhorar
O cálculo da pegada ecológica está sendo feito de maneira segmentada no Brasil. O primeiro estado a ser analisado foi Mato Grosso do Sul, em 2010. Um ano mais tarde foi a vez de São Paulo passar pela checagem.
“O cálculo traz informações importantes que ajudam no planejamento da gestão ambiental das cidades com o direcionamento das políticas públicas, com a meta de reduzir esses impactos”, afirma Becker.
Segundo ele, o consumo consciente de alguns produtos poderia reduzir os impactos no meio ambiente.
“Modificar os padrões de alimentação ajudaria muito na questão da redução da pegada ecológica no país. Mas a cultura e os costumes de um país também devem ser levados em consideração. O que deve melhorar é a qualidade do consumo destes produtos”, opina.
Becker diz que a próxima meta da WWF no Brasil é fazer uma análise dos estados brasileiros e comparar os dados uns com os outros, como mecanismo que controle a redução do consumo dos recursos naturais no país. A estimativa é de que a comparação comece a ser feita a partir de julho de 2014.
Matéria de Maryan D’Ávila Bartels, da Agência Deutsche Welle, DW, publicada peloEcoDebate, 21/08/2013
+ Mais Informações ››››››

O verde no vermelho – O dia em que ultrapassamos os limites do planeta, artigo de Márcia Pimenta

global footprint: us 
[EcoDebate] Todos nós já estamos cansados de saber que, para a maior parte dos trabalhadores, o salário não consegue chegar até o fim do mês. Cada vez tá mais difícil fechar as contas e não entrar no vermelho. Para o planeta Terra a coisa também não está nada boa. Todos os anos, desde os anos 80, o planeta vê seu estoque natural previsto para durar um ano, acabar muito antes.
Este ano esse dia chegou em 20/08 e até o final do ano estaremos usando recursos que estavam provisionados para o ano seguinte. Atingimos o limite da Terra consumindo recursos numa velocidade 50% maior do que a sua capacidade de se recompor. Para que as contas do planeta e os hábitos de consumo de seus moradores fechassem, seriam necessários 1.5 planetas. Impossível!
A dívida ecológica que vem se acumulando se manifesta de várias formas e a mais comentada é o aquecimento global, mas a degradação ambiental do planeta apresenta outras faces como a desertificação, perda de solo, poluição das águas, diminuição do estoque pesqueiro, buraco na camada de ozônio, contaminação de alimentos e da água por fertilizantes e agrotóxicos, entre outros. Mundialmente estas questões tendem a ser observadas como problemas ambientais, quando na verdade trata-se da falta de uma perspectiva sustentável para o desenvolvimento.
Para avaliar até que ponto nossos impactos e consumo já ultrapassaram os limites, Willian Rees e Mathis Wackernagel criaram o conceito da pegada ecológica que busca revelar quanto de área produtiva de terra e de mar do planeta é necessário para prover os recursos e assimilar os resíduos gerados pelas atividades humanas.
Em 1961, a humanidade usava 70% da capacidade produtiva da Terra. Porém com o crescimento populacional a partir dos anos 80 e o consequente aumento do consumo, a capacidade do planeta em fornecer os recursos necessários para as atividades humanas começou a mostrar-se insuficiente. Por volta de 1999 já consumíamos 25% a mais do que a capacidade de regeneração do planeta. Em outras palavras, o planeta precisaria de um ano e três meses para gerar os recursos usados pela humanidade num único ano. Dessa forma, criamos um déficit insuportável para as gerações futuras.
Estudos constataram que a área produtiva disponível a cada habitante do planeta é 1,8 hectares (ha), mas hoje os americanos já usam mais do que o quíntuplo, ou seja, 9,71ha. Como será possível equacionar esta questão, se os países do sul, em desenvolvimento, ainda precisam satisfazer necessidades básicas do seu povo, em um planeta que usa recursos naturais além da sua capacidade de regeneração? Optarão os países mais ricos por um decréscimo no crescimento em solidariedade àqueles que não têm atendidas necessidades básicas como alimentação, saúde, saneamento e educação? Dificilmente…
Apesar da pouca visibilidade, o cálculo pegada ecológica oferece uma boa pista para entender como países e indivíduos utilizam seus recursos naturais. Individualmente podemos pressionar nossos governantes a adotarem posturas que fortaleçam a sustentabilidade em seus processos produtivos e também calcular como nosso estilo de vida impacta negativamente a capacidade da oferta de serviços ambientais pelos ecossistemas.
Quer saber qual é a sua “pegada”? Acesse: http://www.footprintnetwork.org/ .
Márcia Pimenta é Jornalista e Articulista do Portal EcoDebate.

EcoDebate, 21/08/2013
+ Mais Informações ››››››

Doenças do século 19 ainda são desafios para a saúde pública no Brasil de hoje

O mesmo Sistema Único de Saúde (SUS) que fez mais de 22 mil cirurgias de transplantes de órgão e lida diariamente com doenças relacionadas a um novo estilo de vida imposto pela modernidade do século 21 – corrido e ao mesmo tempo sedentário -, ainda precisa prestar atendimento a pessoas com enfermidades que se expandiram desde o século 19. De acordo com a pesquisadora da Fundação Oswaldo Cruz (Fiocruz), Tânia Araújo Jorge, as chamadas “doenças negligenciadas” têm um determinante social muito forte e suas sequelas alimentam o círculo da pobreza.
“Renda, condições de educação, de saneamento e água influenciam bastante na permanência dessas doenças, por isso são consideradas doenças relacionadas à pobreza”, explica Tânia. As doenças negligenciadas consideradas prioritárias pelo governo federal são dengue, doença de Chagas, leishmaniose, malária, esquistossomose, hanseníase e tuberculose. A pesquisadora destaca que outra característica desses males é que, de forma geral, são negligenciados pela indústria farmacêutica global. “Não tem interesse em investimento de pesquisa para geração de vacina, de medicamentos, porque é um mercado pobre, a atividade econômica não dá sustentação para um mercado global” avaliou.
Tânia Araújo acrescenta ainda que outro componente que contribui para a permanência dessas doenças na agenda do governo é a omissão da rede pública de saúde na atenção a essas populações. “Muitas vezes você tem o medicamento, mas o serviço de saúde não propicia o acesso às soluções já conhecidas”, diz.
A pesquisadora ressaltou que não adianta ter apenas um planejamento do governo federal, “tem que haver ação na ponta. A articulação entre os entes federal, estaduais e municipais é muito importante”. Para ela, as políticas voltadas para a as doenças negligenciadas são tratadas como política de governo e não de Estado, e por isso é muito comum que sejam suspensas a cada troca de governo.
“Esse tema não deve sair da agenda política, ele está muito presente na agenda dos cientistas, mas isso por si só não é o suficiente. Os resultados das pesquisas têm que ser colocado na agenda política do país” frisou Tânia, acrescentando que o investimento em educação é fundamental.
De acordo com dados do Ministério da Saúde, em 2012 foram registrados mais de 33 mil novos casos de hanseníase, considerada uma das doenças mais antigas que acometem o homem e que tem cura. Os estados de Mato Grosso, Maranhão e do Tocantins apresentaram em 2012 alta incidência da doença, enquanto todos os estados da Região Sul, Rio de Janeiro, Minas Gerais e São Paulo, na Região Sudeste, somados ao Rio Grande do Norte, no Nordeste, alcançaram a meta de eliminação da hanseníase como problema de saúde pública.
A pesquisadora explicou que com o avanço das pesquisas na saúde a letalidade das doenças negligenciadas diminuiu em relação à do século 19, porém, a convivência prolongada com elas traz mais morbidades. “A mortalidade hoje no Brasil é muito mais causada por doenças cardiovasculares, câncer, doenças crônicas. Essas doenças infecciosas da pobreza conseguem ser controladas, menos de 5% da população morrem em consequência delas. No entanto, elas são muito frequentes, em crianças atrapalham o rendimento escolar, atrapalham o crescimento, em adultos atrapalham a inserção no mercado de trabalho, de forma que sustenta um círculo que mantém a pobreza” diz a especialista.
Ao mesmo tempo em que o SUS precisa lidar com essas doenças, aumenta o número de pessoas acometidas por males intimamente relacionados ao ritmo de vida mais acelerado, às cobranças e ao sedentarismo, cada vez mais comuns na vida de quem vive nas metrópoles. “Obesidade, hipertensão arterial, diabetes mellitus, depressão, problemas de tireoide, dor nas costas, doenças ocupacionais, são as doenças que mais atormentam a sociedade moderna”, avalia Samira Layaun, médica especialista em medicina preventiva e consultora de saúde e qualidade de vida.
Na avaliação da especialista, falta estrutura e investimento em saúde pública para atender à demanda ocasionada por essas doenças. Mesmo figurando em agendas de saúde tão distintas, tanto as doenças negligenciadas como as ditas “da vida moderna” precisam de investimento maciço em educação.
“O governo deveria investir mais em campanhas educativas e ações que estimulem as pessoas a adotar bons hábitos alimentares, de sono, exercícios, entre outros. De outro lado, as pessoas deveriam aderir a esses bons hábitos. Procurar alimentar-se e hidratar-se corretamente, dormir, no mínimo, oito horas por noite, praticar exercícios com regularidade, manter o peso e o estresse sob controle, ficar longe do cigarro, do álcool, das drogas, praticar boas ações e nutrir bons sentimentos. São práticas que colaboram tanto na prevenção como no tratamento das doenças da vida moderna”, reforçou Samira à Agência Brasil.
Doença
Descrição do Instituto Nacional de Ciência e Tecnologia de Inovação em Doenças Negligenciadas – Ligada à Fundação Oswaldo Cruz
Incidência de acordo com o Ministério da Saúde
Esquistossomose:
A esquistossomose, também conhecida como bilharzíase ou “febre do caramujo”, é uma doença parasitária, transmitida por caramujos infectados com uma das cinco variedades do parasita Schistosoma. A infecção tem ampla distribuição no hemisfério sul, com uma relativa baixa taxa de mortalidade, e alta morbidade, que debilita milhões de pessoas ao redor do mundo.
O maior registro da doença está na Região Nordeste, especificamente em Pernambuco. Em seguida, aparece a Região Sudeste, com maior índice em Minas Gerais. Já a Região Norte não apresentou registro da doença em 2012. Os registros do Ministério da Saúde apontavam 31.744 casos esquistossomose em 2012.
Hanseníase:
Doença infecciosa causada pelo bacilo Mycobacteriumlepraeque afeta os nervos e a pele e que provoca danos severos. É transmitida por gotículas de saliva. É endêmica em certos países do Hemisfério Sul, principalmente na Ásia.
Os estados de Mato Grosso, Maranhão e do Tocantins apresentaram, em 2012, coeficientes de prevalência altos – entre 5 e 9,99 casos por 10 mil habitantes -, enquanto todos os da Região Sul, Rio de Janeiro, Minas Gerais e São Paulo, na Região Sudeste, somados ao Rio Grande do Norte, no Nordeste, alcançaram a meta de eliminação da hanseníase como problema de saúde pública.
Em 2012, o registros do Ministério da Saúde apontavam 33.303 casos de hanseníase.
Dengue:
Dengue e a febre hemorrágica da dengue (FHD) são causadas por quatro sorotipos do vírus. A infecção é mais comum nas Américas e na Ásia e em outras regiões tropicais e é transmitida ao homem pela picada de mosquitos infectados. Os sintomas incluem dores de cabeça, febre, dores nas juntas e músculos
A transmissão de dengue foi mais intensa na Região Sudeste com 875.457, seguida pela Região Centro-Oeste com 261.541 (os números são referentes ao período de 30/12/2012 a 6/7/2013).Em 2012 houve mais de 590 mil casos de dengue no Brasil.
Doença de Chagas:
A doença de Chagas só é encontrada na América Latina. É a infecção causada pelo protozoário Trypanosoma cruzi. Muitas vezes na fase inicial a doença não apresenta sintomas, mas quando aparecem podem ser febre, mal-estar, falta de apetite, dor ganglionar, inchaço ocular e aumento do fígado e baço, entre outros.Atualmente, os casos têm ocorrido principalmente na região amazônica, em especial no estado do Pará, devido à ingestão de alimentos contaminados com oTrypanosoma cruzi, parasita causador da doença. Nas outras regiões, a principal forma de transmissão era a vetorial, quando o inseto transmissor, o barbeiro, infestava e colonizava o interior dos domicílios. Hoje, essa forma de transmissão está interrompida, ocorrendo casos de maneira esporádica, principalmente devido à proximidade com o ciclo silvestre da doença. A estimativa é que no Brasil há entre 2 e 3 milhões de pessoas com a doença.
Malária
A malária é considerada uma das mais graves infecções parasitárias da humanidade. Presente em 110 países, a doença ameaça metade da população mundial. A cada ano surgem de 350 a 500 mil casos, principalmente no Continente Africano. Causada pelo parasitaPlasmodium, a malária é transmitida de pessoa a pessoa por meio da picada de mosquitosAnopheles.
Amazonas e Amapá são os estados que apresentam maior número de casos.
Tuberculose:
Doença infectocontagiosa causada por uma bactéria que afeta principalmente os pulmões, mas, também pode ocorrer em outros órgãos, como os rins, e tecidos, como os ossos. É causado pelo Mycobacterium tuberculosis ou bacilo de Koch (BK). Aproximadamente um terço da população do mundo está infectada com o bacilo da tuberculose, que é a principal causa de morte de pessoas que estão infectadas pelo HIV, devido ao enfraquecimento das defesas imunológicas.
Os estados de maior incidência são Amazonas e Rio de Janeiro com 67,3 casos por 100 mil habitantes. Já os locais com menor incidência são o Tocantins e o Distrito Federal com 13, 5 casos por 100 mil habitantes. No momento, Cuiabá é a capital com maior incidência, com 100 casos por 100 mil habitantes. A capital com menor índice é Palmas, com 9,5 casos por 100 mil habitantes. Números de 2012 mostram o registro de 71.230 pessoas com tuberculose.
Leishmaniose:
Doença causada por protozoários parasitas do gêneroLeishmania transmitida por meio da picada de certas espécies de flebotomíneos. Os sintomas da infecção incluem feridas na pele, febre, anemia e danos ao fígado e baço. A forma mais grave da doença, a leishmaniose visceral, ocorre quando os parasitas migram para os órgãos vitais. Atualmente, cerca de 90% dos casos de leishmaniose na América Latina ocorrem no Brasil.
A Região Norte apresenta a maior incidência, sendo o Tocantins o estado com maior concentração da doença. Em seguida, aparece a Região Nordeste, com casos registrados no Maranhão, Piauí e Ceará, respectivamente. Números de 2012 mostram o registro de 3.043 pessoas com tuberculose.
Edição: Marcos Chagas
Reportagem de Aline Leal Valcarenghi, da Agência Brasil, publicada pelo EcoDebate, 20/08/2013
+ Mais Informações ››››››

Parceiros