INTRODUÇÃO À FILOSOFIA DA CIÊNCIA
O objetivo deste texto é apresentar uma Introdução à Filosofia da Ciência. Ele foi elaborado a partir das aulas ministradas pelo professor Félix Pinheiro na Universidade Federal de Uberlândia, em 2022. O texto contém as seguintes partes: (i) Círculo de Viena; (ii) Problema da Explicação Científica; (iii) Mito do Método Científico; (iv) Problema da Demarcação; (v) Progresso da Ciência.
I. CÍRCULO DE VIENA
O chamado Círculo de Viena representa o ponto de partida fundamental da filosofia da ciência contemporânea. O Círculo configurou-se como um movimento intelectual coletivo, ativo aproximadamente entre 1924 e 1936, reunido em torno de Moritz Schlick e integrado por pensadores como Rudolf Carnap, Otto Neurath, Hans Hahn e, em diálogo mais amplo, figuras como Reichenbach e Feigl. O que unificava esses autores não era um conjunto rígido de teses, mas um projeto filosófico comum, explicitado programaticamente no manifesto A Concepção Científica do Mundo.
O objetivo central desse projeto era promover uma reforma intelectual radical, fundamentada na convicção de que muitos dos problemas tradicionais da filosofia resultavam de confusões linguísticas e do uso indevido de conceitos desprovidos de conteúdo empírico. O Círculo defendia a ideia de uma ciência unificada, na qual os diferentes domínios do conhecimento empírico fossem articulados de maneira coerente por meio de uma linguagem logicamente rigorosa. Esse projeto estava intimamente relacionado à combinação do empirismo clássico, segundo o qual todo conhecimento sobre o mundo deriva da experiência, com a lógica simbólica moderna, concebida como instrumento privilegiado de análise conceitual e de esclarecimento filosófico.
Nesse contexto, a posição mais conhecida, e mais controversa, do Círculo de Viena é sua atitude decididamente anti-metafísica. Importa notar, contudo, que essa rejeição da metafísica não se baseia em uma discordância ontológica específica, mas em um argumento lógico-linguístico sobre o significado. Os membros do Círculo sustentavam que a metafísica tradicional incorre em um erro fundamental ao supor que o “pensamento puro” possa gerar conhecimento substantivo sobre a realidade independentemente de qualquer base empírica. Contra essa suposição, o Círculo afirma que nenhuma proposição pode informar sobre o mundo se não estiver, ao menos em princípio, conectada à experiência possível.
Essa crítica culmina na rejeição explícita da noção kantiana de juízos sintéticos a priori. Para Kant, havia proposições que ampliavam nosso conhecimento do mundo sem depender da consciência de cognição de um dado sensorial particular, como os princípios fundamentais da geometria ou da causalidade. O Círculo de Viena, entretanto, nega a existência dessa terceira classe de juízos e redefine os tipos de juízos em termos não-kantianos. Segundo sua classificação, há apenas duas categorias legítimas de proposições significativas:
(1) proposições analíticas, como as da lógica e da matemática, que são verdadeiras em virtude de sua forma ou definições e não possuem conteúdo factual; e
(2) proposições sintéticas empíricas, que dizem algo sobre o mundo e cuja validade depende de procedimentos de confirmação observacional.
Toda tentativa de postular um conhecimento que seja simultaneamente informativo sobre a realidade e independente da experiência é, para o Círculo, conceitualmente incoerente. Isso não significa que o Círculo de Viena negasse que proposições sintéticas não-empíricas não pudessem ser verdadeiras. Para os positivistas lógicos, uma proposição sem significado ainda poderia ter valor de verdade se não implicasse uma impossibilidade lógica. No entanto, em termos de conhecimento, essas proposições não eram significativamente legítimas, pois seu real valor de verdade não podia ser conhecido. Assim, quando o positivismo lógico nega que proposições inverificáveis tenham significado é no sentido de não terem valor cognitivo para o discurso científico e filosófico, não que não possuam nenhum sentido em absoluto.
Assim, o critério verificacionista de significado, segundo o qual uma proposição só é significativa para o corpo de conhecimento se for verificável, não deve ser entendido como uma tese empírica ou como uma afirmação metafísica sobre o mundo, mas como uma regra metodológica de significação. Um enunciado possui significado cognitivo para nosso corpo de conhecimento apenas se for possível indicar as condições sob as quais ele poderia ser verificado por meio da experiência sensível. Caso contrário, o enunciado, embora possa ser falso ou verdadeiro, é desprovido de sentido cognitivo relevante para o conhecimento científico. É nesse sentido preciso que a metafísica é rejeitada, pois trabalha com proposições que não podem de fato constituir um corpo de conhecimento.
Além de não rejeitar que proposições inverificáveis possam ter valor de verdade, o positivismo lógico não nega que juízos sem significado cognitivo sejam sem valor. Certos juízos, como afirmações morais, religiosas e estéticas, bem como a poesia, ainda possuem valor expressivo. A arte, a ética e a religião continuam sendo profundamente valorizadas pelo positivismo lógico.
Essa concepção implica uma redefinição significativa do papel da filosofia. Para o Círculo de Viena, a filosofia não atua como uma disciplina teórica concorrente da ciência, nem como uma fonte de conhecimento substantivo sobre a realidade. Sua função legítima é o esclarecimento lógico da linguagem científica, ou seja, a análise conceitual das proposições, teorias e métodos empregados pelas ciências empíricas. Essa orientação está estreitamente vinculada à distinção, posteriormente sistematizada por Reichenbach, entre o contexto de descoberta e o contexto de justificação. Enquanto o primeiro envolve fatores psicológicos, históricos e sociais relacionados à gênese das teorias, o segundo refere-se exclusivamente às razões lógicas e evidenciais que legitimam uma afirmação científica. É nesse segundo contexto que se concentra o interesse filosófico do Círculo.
Além de seu aspecto estritamente epistemológico, o projeto do Círculo de Viena possuía uma clara dimensão cultural, social e política. Grande parte dos positivistas lógicos viam a concepção científica do mundo como parte de um movimento mais amplo de esclarecimento racional, associado a ideais progressistas, ao socialismo democrático e à oposição ao irracionalismo e ao autoritarismo. Assim, o positivismo lógico jamais defendeu mitos como neutralidade científica ou política, antes compreendia o engajamento político como parte fundamental do seu projeto epistemológico.
O projeto do Círculo de Viena, primeiro chamado de positivismo lógico, depois foi denominado de empirismo lógico. O núcleo do empirismo lógico consiste na tese de que muitos problemas filosóficos tradicionais não são propriamente problemas sobre o mundo, mas problemas sobre o uso inadequado da linguagem. Assim, compreender a ciência exige, antes de tudo, compreender a estrutura lógica dos enunciados que a compõem.
Nesse sentido, a filosofia deixa de investigar diretamente a “consciência”, a “essência” ou a “realidade última” e passa a investigar as condições de significado das proposições científicas. O ponto de partida dessa análise é a distinção entre dois tipos fundamentais de termos: (i) termos observacionais: são aqueles ligados diretamente à experiência sensível, como “quente”, “vermelho”, “duro”, “planeta visível”; (ii) termos teóricos: não se referem a entidades acessíveis de modo imediato, mas a construções conceituais introduzidas para explicar regularidades observáveis, tais como “elétron”, “campo gravitacional”, “gene” ou “força”.
Surge então um problema crucial: se termos teóricos não são diretamente observáveis, como evitar que a ciência recaia na mesma especulação que o Círculo atribui à metafísica? A resposta empirista consiste em exigir que tais termos sejam ligados sistematicamente a condições observacionais, seja por meio de definições explícitas, seja por meio de regras de correspondência que especifiquem como hipóteses teóricas implicam resultados empíricos testáveis. Essa exigência levou a projetos sofisticados de reconstrução formal das teorias científicas, nos quais a linguagem da ciência é dividida em um vocabulário observacional e um vocabulário teórico interligados por regras lógicas.
Entretanto, essa posição enfrenta uma objeção célebre: o chamado problema da autodestruição do princípio de verificação. A afirmação “um enunciado só tem sentido se for analítico ou empiricamente verificável” não é ela própria analítica nem empiricamente verificável. Logo, pareceria ser sem sentido segundo seu próprio critério. A resposta desenvolvida especialmente por Carnap consiste em reformular o empirismo como uma proposta metodológica ou convenção linguística, e não como uma tese metafísica. O princípio de verificação seria uma recomendação sobre como estruturar a linguagem científica, análoga à adoção de regras em um sistema formal. Assim, o princípio verificacionista não é uma das proposições que requer verificação, mas uma regra formal que delimita o campo do discurso científico.
No interior dessa estrutura, a lógica desempenha papel central. A análise da ciência envolve a distinção entre dois tipos de inferência: (i) inferência dedutiva: forma de inferência não-ampliativa em que a conclusão está contida nas premissas, e sua validade depende exclusivamente da forma lógica, se as premissas são verdadeiras e a forma é válida, a conclusão é necessariamente verdadeira; (ii) inferência ampliativa: forma de inferência ampliativa que extrapola os dados observados para formular generalizações ou previsões.
Contudo, como já havia apontado David Hume, e como reconhecem os próprios empiristas lógicos, a indução não é logicamente válida no sentido dedutivo. Mesmo que inúmeras observações confirmem uma regularidade, a conclusão universal permanece contingente. Esse ponto revela uma tensão estrutural no projeto empirista. A ciência depende de generalizações e leis universais, mas tais leis não podem ser deduzidas de um conjunto finito de observações. A lógica garante validade apenas à dedução; a indução opera em termos de graus de confirmação ou probabilidade. Essa dificuldade levou membros do Círculo, especialmente Carnap, a desenvolver teorias formais da confirmação, buscando dar fundamento lógico à prática científica sem recorrer a fundamentos metafísicos.
No entanto, ainda assim, permanece o fato de que o conhecimento científico não alcança necessidade lógica, mas apenas sustentação racional baseada em evidências. No entanto, o fato de que a indução não garanta certeza, não significa que ela seja falaciosa ou irracional porque é um equívoco julgar a validade de uma inferência indutiva com base em critérios próprios da dedução. Além disso, a própria dedução não garante que sua conclusão seja infalível, mesmo derivações dedutivas não podem provar algo de forma infalível.
II. PROBLEMA DA EXPLICAÇÃO CIENTÍFICA
A investigação sobre a explicação científica representa um dos momentos centrais do desenvolvimento do empirismo lógico. Se o problema da verificação tratava das condições sob as quais uma proposição científica pode ser considerada significativa e confirmada, o problema da explicação desloca o foco para outra questão fundamental: o que significa explicar um fenômeno? A resposta clássica oferecida pelo empirismo lógico, especialmente por Hans Reichenbach e Carl Hempel, consistiu em compreender a explicação como uma estrutura racional reconstruível logicamente.
O ponto de partida dessa abordagem é a célebre distinção entre contexto de descoberta e contexto de justificação, formulada explicitamente por Reichenbach. O contexto de descoberta refere-se aos processos históricos, psicológicos e sociais por meio dos quais teorias científicas surgem. Ele inclui intuições, analogias, acidentes históricos e influências culturais. Já o contexto de justificação diz respeito à avaliação racional das teorias: sua coerência lógica, sua relação com evidências e sua capacidade explicativa. Para Reichenbach, e para o empirismo lógico em geral, a filosofia da ciência deve concentrar-se no segundo contexto. A lógica não governa o momento criativo da descoberta, mas estrutura o momento crítico da avaliação.
Essa distinção exerceu enorme influência metodológica ao delimitar a tarefa da epistemologia científica como uma reconstrução normativa da racionalidade científica. Entretanto, ela também foi posteriormente criticada por ser excessivamente rígida, uma vez que processos de descoberta podem envolver raciocínios estruturados e que fatores sociais podem influenciar a própria justificação. Ainda assim, no interior do empirismo lógico, a separação tinha função estratégica: preservar a objetividade da ciência mediante critérios formais.
É nesse quadro que surge o modelo clássico de explicação científica desenvolvido por Carl Hempel: o modelo nomológico-dedutivo (MND), também conhecido como modelo de “cobertura por leis”. Segundo esse modelo, explicar um evento consiste em demonstrar que ele podia ser logicamente deduzido a partir de leis gerais da natureza combinadas com condições iniciais específicas. A explicação assume, assim, a forma de um argumento válido. O conjunto das premissas, denominado explanans, inclui (1) leis universais e (2) condições particulares do caso. A conclusão, o explanandum, descreve o fenômeno a ser explicado.
A força do modelo reside em sua clareza estrutural: um fenômeno é explicado quando é subsumido sob uma regularidade legaliforme. Para Hempel as leis desempenham papel indispensável, pois conferem generalidade e necessidade à explicação. Um evento isolado não explica outro; é a conexão mediada por uma lei que confere inteligibilidade científica.
Uma consequência importante dessa concepção é a chamada tese da simetria entre explicação e previsão. Se uma explicação consiste na dedução de um evento a partir de leis e condições iniciais, então a previsão possui exatamente a mesma estrutura lógica: a única diferença é temporal. Na previsão, o evento ainda não ocorreu; na explicação, ele já ocorreu. Estruturalmente, porém, ambos são argumentos dedutivos. Essa simetria reforça a ideia de que a ciência visa formular leis capazes tanto de explicar quanto de antecipar fenômenos.
Contudo, o modelo nomológico-dedutivo enfrenta algumas dificuldades, sendo elas:
(1) Problema da relevância explicativa: um argumento pode satisfazer as condições formais do modelo e ainda assim não fornecer uma explicação genuína. O exemplo clássico é o da infertilidade masculina associada ao uso de anticoncepcionais: a dedução pode ser válida, mas a condição mencionada é irrelevante para o fenômeno. Isso revela que a validade lógica não é suficiente para garantir adequação explicativa. A explicação exige mais do que dedução; exige pertinência.
(2) Problema da assimetria causal: Considere um mastro e sua sombra, a partir de leis geométricas, pode-se deduzir o comprimento da sombra conhecendo a altura do mastro e o ângulo do sol. Mas também se pode deduzir a altura do mastro conhecendo o comprimento da sombra. Formalmente, ambas as deduções satisfazem o modelo. Intuitivamente, porém, apenas a primeira constitui explicação adequada. A sombra não causa o mastro. Esse tipo de caso mostra que a estrutura lógica da dedução é simétrica, enquanto as relações causais no mundo são assimétricas. O modelo de Hempel, ao não incorporar explicitamente a noção de causalidade, parece incapaz de capturar essa diferença.
Além do modelo dedutivo para leis estritamente universais, Hempel também desenvolveu o modelo indutivo-estatístico, destinado a explicações probabilísticas. Em muitos domínios científicos, como a genética ou a mecânica estatística, não se dispõe de leis determinísticas, mas de leis probabilísticas. Nesse caso, a explicação consiste em mostrar que o evento tinha alta probabilidade de ocorrer dadas certas condições. Ainda assim, persistem problemas semelhantes de relevância e causalidade.
Essas dificuldades levaram muitos filósofos posteriores a defender que a explicação científica envolve necessariamente alguma forma de conexão causal real, e não apenas subsunção lógica sob leis gerais. A crítica ao modelo nomológico-dedutivo marca, portanto, uma transição importante na filosofia da ciência: do formalismo lógico do empirismo clássico para abordagens que enfatizam causalidade, mecanismos e dependência contrafactual.
III. MITO DO MÉTODO CIENTÍFICO
A ideia de que existe um único e universal “método científico” constitui uma das imagens mais difundidas, e ao mesmo tempo mais simplificadas, da ciência. Segundo essa concepção popular, haveria um conjunto fixo de etapas que, quando corretamente seguidas, conduziriam automaticamente à verdade. Contudo, a análise filosófica contemporânea, mostra que essa noção é problemática tanto conceitual quanto historicamente. O chamado “método científico” revela-se um conceito polissêmico, cuja aparente simplicidade encobre profundas divergências sobre a natureza da racionalidade científica.
Em primeiro lugar, é preciso distinguir diferentes sentidos da expressão. Num nível mais concreto, o método refere-se a ferramentas e técnicas específicas empregadas em diferentes áreas da ciência: experimentos duplo-cegos na medicina, datação por carbono-14 na arqueologia, modelagem matemática na física, análises estatísticas na psicologia. Essas práticas variam amplamente entre disciplinas e são sensíveis a contextos históricos e tecnológicos. Nesse sentido, falar em “método científico” como se todas as ciências compartilhassem as mesmas técnicas é claramente inadequado.
Em um segundo nível, a expressão designa metodologias normativas, isto é, teorias filosóficas sobre como a ciência deve proceder. Aqui se situam propostas como o indutivismo clássico, o falsificacionismo de Popper, os modelos de confirmação probabilística desenvolvidos por Carnap e Reichenbach, ou ainda a inferência pela melhor explicação. Essas metodologias não descrevem simplesmente o que os cientistas fazem, mas prescrevem critérios de racionalidade e justificação. Elas são diferentes reconstruções normativas do método científico.
Finalmente, há um terceiro sentido mais ambicioso: a busca por “o” Método Científico em sentido forte, isto é, um conjunto universal de regras gerais que atravessaria todas as ciências e garantiria seu sucesso epistêmico. Essa ambição esteve presente, de maneiras distintas, no empirismo lógico e em outros projetos de racionalização da ciência. A ideia de uma ciência unificada, orientada por princípios metodológicos comuns, pressupunha que seria possível explicitar tais regras de maneira formal e sistemática.
Entretanto, a análise histórica e filosófica posterior mostrou que essa concepção unitária enfrenta sérias dificuldades. As práticas científicas variam profundamente ao longo do tempo e entre disciplinas. A física teórica, a biologia evolutiva, a economia e a geologia empregam padrões de evidência, modelos explicativos e formas de teste significativamente distintos. Além disso, mudanças científicas importantes, como as revoluções descritas por Thomas Kuhn, não parecem resultar da aplicação mecânica de regras fixas, mas de transformações conceituais mais amplas.
Diante disso, emerge a posição conhecida como pluralismo metodológico. Segundo essa perspectiva, não existe um conjunto eterno e invariável de regras que defina a ciência; o que existe é uma diversidade de estratégias investigativas adaptadas a problemas específicos. O método não deve ser confundido com os objetivos da ciência, como a busca por explicação, previsão ou controle, nem com seus produtos, teorias e modelos consolidados. Ele é antes um conjunto dinâmico de práticas que evoluem com o próprio desenvolvimento científico.
Isso não significa, contudo, que a ciência seja irracional ou arbitrária. Mesmo defensores do pluralismo reconhecem que há padrões recorrentes de investigação. A tradição pragmatista, representada por John Dewey, e autores como Mario Bunge, identificam etapas típicas do processo investigativo: a identificação de um problema, a formulação de hipóteses, o teste sistemático por meio de observação ou experimento e a subsequente aceitação, revisão ou rejeição das hipóteses. Essas etapas não constituem um algoritmo infalível, mas expressam uma estrutura geral de resolução racional de problemas.
IV. PROBLEMA DA DEMARCAÇÃO
O chamado problema da demarcação consiste na seguinte questão: o que distingue a ciência de outras formas de discurso, especialmente da pseudociência? Se não existe um método científico único e universal que sirva como manual infalível, como justificar que a ciência ocupa um estatuto epistêmico privilegiado? O problema da demarcação não é apenas teórico; ele possui implicações sociais, políticas e educacionais profundas, especialmente em contextos como debates sobre criacionismo, negacionismo climático e terapias alternativas.
Uma das respostas mais influentes foi proposta por Karl Popper, por meio do critério do falsificacionismo Segundo Popper, uma teoria é científica apenas se for falseável, isto é, se fizer previsões que possam, em princípio, ser refutadas por observação ou experimento. O ponto central não é que a teoria já tenha sido falseada, mas que ela esteja exposta ao risco da refutação. Para Popper, a ciência progride não pela acumulação de confirmações, mas pela eliminação de erros. O verdadeiro cientista adota uma postura crítica, buscando testes rigorosos que possam revelar falhas na teoria.
O alvo principal dessa proposta eram teorias que, segundo Popper, eram excessivamente flexíveis, como a psicanálise e o marxismo. Essas teorias pareciam capazes de acomodar qualquer evidência possível, reinterpretando dados contrários de modo a preservarem suas teses centrais. Quando uma teoria explica tudo, ela se torna imune à refutação e, portanto, perde seu caráter científico. O critério de falseabilidade representou uma tentativa poderosa de preservar o caráter crítico e não dogmático da ciência. Contudo, também enfrentou dificuldades, como o fato de que teorias científicas reais frequentemente recorrem a hipóteses auxiliares para proteger seu núcleo central, como a Teoria da Evolução, tornando a refutação menos simples do que Popper sugeria.
Alguns sustentam até mesmo que a Teoria da Evolução não é falseável. Isso se deve ao fato de que ela não opera como uma hipótese isolada, vulnerável a um experimento decisivo, mas como um vasto quadro teórico integrado, que articula múltiplas disciplinas e linhas independentes de evidência. Fósseis, genética molecular, biogeografia, embriologia e anatomia comparada convergem de maneira sistemática para sustentar seus princípios centrais.
Nesse sentido, a aparente “infalsificabilidade” não decorre de imunização dogmática, mas de sua extraordinária robustez empírica e capacidade explicativa. Trata-se, possivelmente, da teoria mais amplamente corroborada de que dispomos hoje na ciência, tendo resistido a incontáveis testes e incorporado novos dados sem perder seu núcleo estruturante. Se assim for, a dificuldade de falseá-la não constitui um defeito interno da teoria, mas um desafio ao próprio critério popperiano de demarcação, que parece insuficiente para capturar o modo como teorias científicas maduras e altamente integradas efetivamente funcionam.
Essas dificuldades motivaram o desenvolvimento de abordagens mais sofisticadas, como a teoria dos programas de pesquisa de Imre Lakatos. Em vez de avaliar teorias isoladamente, Lakatos propôs analisar estruturas teóricas mais amplas compostas por um “núcleo duro” protegido por hipóteses auxiliares. Um programa de pesquisa é considerado progressivo quando gera novas previsões corroboradas empiricamente e amplia seu poder explicativo. Torna-se degenerativo quando apenas ajusta hipóteses para acomodar fatos já conhecidos, sem produzir avanços genuínos. A distinção entre progressividade e degeneração permite uma avaliação mais dinâmica da cientificidade, reconhecendo que teorias não são abandonadas ao primeiro sinal de dificuldade.
Outra linha de argumentação enfatiza a inserção sistêmica da ciência. A ciência não é um conjunto de afirmações isoladas, mas uma rede interconectada de teorias mutuamente sustentadas. A chamada coerência externa, discutida por autores como George Reisch, destaca que disciplinas científicas devem ser compatíveis com conhecimentos bem estabelecidos em outros campos. Por exemplo, o criacionismo falha como ciência não apenas por problemas internos, mas porque entra em conflito direto com resultados consolidados da biologia evolutiva, da geologia e da física. A incompatibilidade sistemática com o corpo do conhecimento científico constitui um forte indício de pseudocientificidade.
Entretanto, muitos filósofos contemporâneos, como Sven Ove Hansson, argumentam que o problema da demarcação dificilmente será resolvido por um único critério necessário e suficiente. Em vez disso, a pseudociência pode ser identificada por um conjunto de características recorrentes, uma abordagem multicritério. Entre esses “sinais de alerta” estão: (i) a confiança excessiva em autoridade pessoal; (ii) a falta de replicabilidade experimental; (iii) a seleção enviesada de evidências (cherry-picking); (iv) a resistência sistemática à testagem crítica e a estagnação teórica.
Uma distinção adicional, discutida na literatura contemporânea, diferencia fraude científica de pseudociência. O fraudador sabe que está mentindo e manipula dados deliberadamente. Já o pseudocientista pode não estar necessariamente enganando conscientemente; muitas vezes, o problema é a ausência de compromisso rigoroso com padrões de evidência e coerência. Inspirando-se na análise de Harry Frankfurt sobre o “bullshit”, alguns filósofos sugerem que a pseudociência se caracteriza por uma indiferença estrutural em relação à verdade: suas afirmações não estão adequadamente conectadas a procedimentos sistemáticos de teste e revisão.
É importante considerar, ainda, que o próprio problema da demarcação passou por reavaliações profundas. Autores como Thomas Kuhn argumentaram que não há um critério simples que separe nitidamente ciência de não-ciência, pois a prática científica real envolve elementos históricos e comunitários. Outros, como Larry Laudan, chegaram a defender que o problema da demarcação seria um “pseudo-problema”, sugerindo que deveríamos abandonar a busca por uma definição rígida de ciência.
Ainda assim, a maioria dos filósofos reconhece que algum tipo de distinção prática é indispensável, sobretudo em contextos de políticas públicas e educação científica. Outros afirmam que mesmo se não tiver sentido epistemológico, talvez o termo “pseudociência” ainda possa ser usado de modo retórico ou político. Há ainda os que defendem um critério institucional: ciência é o que é feito em institutos científicos, como universidades e centros acadêmicos de pesquisa.
V. PROGRESSO DA CIÊNCIA
A questão do progresso científico ocupa posição central na filosofia da ciência porque envolve uma pergunta fundamental: a ciência realmente avança em direção à verdade, ou apenas muda suas formas de interpretar o mundo? Longe de ser um corpo estático de conhecimento acumulado, a ciência revela-se historicamente dinâmica, marcada por revisões, substituições teóricas e mudanças conceituais profundas. As interpretações do progresso científico variam principalmente em função do grau de realismo que atribuem às teorias científicas e da forma como compreendem a continuidade histórica do conhecimento.
A chamada visão cumulativa ingênua representa a concepção mais intuitiva e tradicional do progresso científico. Segundo essa perspectiva, a ciência avança linearmente, acumulando descobertas verdadeiras que se somam ao estoque anterior de conhecimento. O mundo é concebido como uma realidade estável e independente, e as teorias científicas funcionam como descrições progressivamente mais precisas dessa realidade. O progresso, nesse sentido, é cumulativo e contínuo: o que foi descoberto permanece válido, sendo apenas ampliado ou refinado. Essa imagem foi comum na tradição positivista inicial e na epistemologia clássica, mas tornou-se difícil de sustentar diante de mudanças radicais como a substituição da física newtoniana pela relatividade ou pela mecânica quântica.
Karl Popper oferece uma alternativa conhecida como progresso por conjecturas e refutações. Rejeitando a ideia de que a ciência acumule verdades verificadas, Popper sustenta que o avanço científico ocorre por meio da eliminação de erros. As teorias são propostas como conjecturas ousadas e submetidas a testes rigorosos; quando falham, são substituídas por teorias melhores.
O progresso, no sentido popperiano, não consiste na confirmação definitiva de teorias, mas em sua capacidade crescente de resistir a tentativas de refutação. Popper mantém um compromisso com o realismo metafísico, existe um mundo independente de nossas teorias, mas reconhece que talvez nunca alcancemos a verdade final. Por isso, introduz o conceito de verossimilhança, entendido como aproximação progressiva da verdade. Sabemos que uma teoria é superior a outra quando resolve mais problemas e se mostra mais robusta diante de testes críticos, ainda que permaneça provisória.
Thomas Kuhn, por sua vez, desafia profundamente tanto a visão cumulativa quanto o modelo popperiano. Kuhn distingue entre ciência normal e revoluções científicas. Durante períodos de ciência normal, os pesquisadores trabalham dentro de um paradigma compartilhado. um conjunto de pressupostos teóricos, métodos e exemplos exemplares, resolvendo “quebra-cabeças” segundo regras estabelecidas. O progresso nesse estágio é cumulativo. Contudo, quando anomalias persistentes minam a confiança no paradigma vigente, ocorre uma crise que pode culminar em uma revolução científica. O novo paradigma não é simplesmente uma extensão do anterior, mas uma reconfiguração conceitual profunda.
A tese mais controversa de Kuhn é a da incomensurabilidade: paradigmas sucessivos podem empregar conceitos, métodos e padrões de avaliação tão distintos que não há uma medida neutra comum para compará-los plenamente. No entanto, Kuhn não afirma que o mundo físico mude nem é relativista, o que ele defende é que a forma como ele é estruturado teoricamente pela ciência se transforma radicalmente. Isso levanta dúvidas sobre a ideia de progresso como aproximação linear de uma única verdade.
Em resposta a essas preocupações, filósofos como Richard Boyd desenvolveram versões sofisticadas do realismo científico contemporâneo. Boyd aceita que os métodos científicos são teoricamente carregados e que não existe um ponto de vista absolutamente neutro. Entretanto, rejeita a ideia de ruptura total. Boyd defende que o sucesso explanatório e preditivo das teorias científicas seria inexplicável se elas não captassem, ao menos aproximadamente, a estrutura do mundo. A ciência progride por meio de um processo dialético no qual teorias e métodos são ajustados mutuamente em interação contínua com a realidade. Mesmo quando teorias são substituídas, frequentemente preservam-se estruturas matemáticas, princípios ou relações fundamentais, indicando continuidade subjacente.
A disputa entre essas visões revela que o problema do progresso científico está intimamente ligado ao debate entre realismo e antirrealismo. O realismo científico, em termos gerais, sustenta que as melhores teorias científicas são verdadeiras ou aproximadamente verdadeiras e que as entidades que elas postulam, como elétrons, genes ou campos gravitacionais, existem independentemente de nossas teorias. A visão mais ingênua do progresso assume um realismo forte: a ciência avançaria acumulando verdades sobre a realidade.
Karl Popper também é realista, mas propõe um realismo crítico: não alcançamos a verdade de forma definitiva, mas nos aproximamos dela por meio da formulação de hipóteses ousadas e da eliminação sistemática de erros. Realistas contemporâneos como Richard Boyd procuram reformular o realismo de modo mais sofisticado, defendendo que o sucesso preditivo e explicativo das teorias seria melhor explicado supondo que elas captam, ao menos aproximadamente, a estrutura do mundo.
Em contraste, uma forma influente de antirrealismo é o empirismo construtivo de Bas van Fraassen, que rejeita o compromisso com a verdade acerca de entidades não observáveis. Para ele, o objetivo da ciência não é descobrir se elétrons ou quarks realmente existem, mas alcançar adequação empírica, isto é, formular teorias que descrevam corretamente os fenômenos observáveis. Aceitar uma teoria significa, portanto, considerá-la empiricamente adequada, sem assumir que suas entidades teóricas correspondem a aspectos reais e independentes do mundo.
Um argumento a favor do realismo é chamado de argumento do milagre. Ele sustenta que o extraordinário sucesso preditivo, explicativo e tecnológico das teorias científicas seria praticamente milagroso se tais teorias não fossem ao menos aproximadamente verdadeiras ou se não captassem aspectos reais da estrutura do mundo. A melhor explicação para o fato de que a ciência consegue prever fenômenos novos, integrar diferentes domínios e sustentar aplicações tecnológicas complexas é que suas teorias correspondem, ainda que de modo imperfeito, à realidade. Assim, o progresso científico deve ser entendido como aproximação crescente da verdade.
Em contraste, a Meta-Indução Pessimista proposta por Larry Laudan, argumenta que a história da ciência mostra que muitas teorias anteriormente consideradas bem-sucedidas e confirmadas foram posteriormente abandonadas como falsas. Se teorias passadas, apesar de seu sucesso empírico, revelaram-se incorretas, então, por indução, é provável que nossas teorias atuais também o sejam. O sucesso científico, portanto, não garantiria verdade aproximada, mas apenas adequação temporária aos dados disponíveis, lançando dúvidas sobre a ideia de progresso como aproximação contínua da realidade.

Comentários