Oxford Companion to Philosophy, org. por Ted Honderich
19 de Setembro de 2004 ⋅ Filosofia da ciência

O que é a filosofia da ciência?

David Papineau
King's College London

A filosofia da ciência pode ser dividida em duas grandes áreas: a epistemologia da ciência e a metafísica da ciência. A epistemologia da ciência discute a justificação e a objectividade do conhecimento científico. A metafísica da ciência discute aspectos filosoficamente problemáticos da realidade desvendada pela ciência.

1. As questões acerca da epistemologia da ciência são em parte as mesmas que as questões acerca do conhecimento em geral. Um tema central é o problema da indução. A indução é o processo que nos leva da observação de casos particulares a conclusões universais como “Todos os corpos caem com uma aceleração constante”. O problema é que estes argumentos não são logicamente válidos. A verdade das premissas particulares não garante a verdade da conclusão universal. Que todos os corpos observados até agora tenham caído com uma aceleração constante não garante que todos os corpos observados no futuro o façam também.

Uma solução popular para o problema da indução deve-se a Karl Popper. Do ponto de vista de Popper, a ciência, para começar, não se baseia na indução. Em vez disso, formula hipóteses, numa atitude conjectural, e depois esforça-se por refutá-las. Popper argumenta que, enquanto tais hipóteses forem falsificáveis (no sentido de haver observações possíveis que as infirmariam), a objectividade da ciência está assegurada.

Os críticos do “falsficacionismo” de Popper queixam-se de que ele não oferece qualquer explicação para a legitimidade das nossas crenças na veracidade das teorias científicas (embora o faça para as crenças na sua falsidade) e, logo, de que ele não consegue resolver o problema da indução. A teoria bayesiana da confirmação proporciona uma solução alternativa para esse problema. Os bayesianos argumentam que as nossas crenças se organizam por graus, e que esses graus de crença obedecem, se se tratar de crenças racionais, ao cálculo de probabilidades. Argumentam então que o teorema de Bayes implica uma estratégia racional para actualizar os nossos graus de crença como resposta a dados novos. Em relação ao problema da indução, esta estratégia implica que o nosso grau de crença numa teoria científica seja aumentado por observações que são prováveis dada a teoria, mas improváveis de outro modo.

Outro problema central na epistemologia da ciência é a possibilidade do conhecimento de inobserváveis como os vírus e os electrões. Os instrumentalistas negam que as teorias científicas sobre inobserváveis possam ser aceites como descrições verdadeiras de um mundo inobservável. Em vez disso, defendem que tais teorias são, no máximo, instrumentos úteis para gerar previsões observáveis. A eles opõem-se aqueles que adoptam o ponto de vista realista de que a ciência pode descobrir, e de facto descobre, verdades sobre inobserváveis.

Alguns instrumentalistas defendem o seu ponto de vista apelando para a subdeterminação das teorias pelos dados. De acordo com esta tese, qualquer conjunto de dados observacionais será sempre compatível com várias teorias mutuamente incompatíveis acerca de inobserváveis, e portanto não pode justificar a escolha de nenhuma delas em particular. Esta ideia pode, por sua vez, ser defendida apelando para a “tese Duhem-Quine”, que diz que, em face de dados aparentemente recalcitrantes, se pode sempre manter uma proposição teórica por meio de ajustamentos em hipóteses auxiliares que sejam parte integrante de toda a teoria. Uma via alternativa para a subdeterminação das teorias pelos dados consiste em observar que, dada qualquer teoria que consiga acomodar os dados observacionais, podemos sempre “cozinhar” uma teoria alternativa que explica os mesmos factos observacionais.

A doutrina do instrumentalismo assenta na distinção entre o que é observável e o que não é. Esta distinção não está isenta de problemas. Alguns filósofos da ciência, os mais notórios dos quais são T.S. Kuhn e Paul Feyerabend, argumentam que a observação está “contaminada pela teoria”, com o que pretendem dizer que as nossas teorias anteriores influenciam as observações que fazemos e a importância que lhes atribuímos. Daqui inferem que muitas vezes teorias científicas diferentes são “incomensuráveis”, no sentido em que não há nenhum conjunto de proposições observacionais teoricamente neutras que possa fazer decidir entre elas. Um corolário disto, para Kuhn e Feyerabend, é que a verdade científica objectiva não é alcançável mesmo ao nível dos observáveis, quanto mais ao nível dos inobserváveis. Kuhn argumenta que a história da ciência apresenta uma sucessão de “paradigmas”, conjuntos de pressupostos e exemplos representativos que condicionam o modo como os cientistas resolvem problemas e compreendem os dados, e que apenas são substituídos, em “revoluções científicas” ocasionais, quando os cientistas mudam de uma crença teórica para outra.

Nem todos os epistemólogos da ciência aceitam o relativismo epistemológico de Kuhn e Feyerabend. Muitos deles diriam que mesmo que a fronteira entre os observáveis e os inobserváveis não seja nítida nem imutável, as proposições observacionais básicas podem ainda proporcionar um teste imparcial para as previsões de uma teoria. E outros diriam que, mesmo que as teorias sejam sempre subdeterminadas — no sentido em que qualquer conjunto de dados será sempre compatível com várias teorias diferentes — daí não se segue que não possamos escolher racionalmente entre essas teorias, visto que algumas dessas teorias podem estar mais bem sustentadas por esses dados do que outras.

Há, porém, outro argumento poderoso contra o ponto de vista realista de que as teorias científicas são descrições verdadeiras de uma realidade independente. Reside na versão do passado e obsoleta de tais teorias. Muitas teorias científicas do passado, desde a astronomia ptolemaica até à teoria flogística da combustão, revelaram-se falsas. Assim, parece que deveríamos inferir, por meio de uma “meta-indução pessimista”, que, uma vez que as teorias científicas do passado se revelaram normalmente falsas, as do presente e as do futuro serão também provavelmente falsas.

Em resposta a isto, pode-se argumentar que até mesmo as teorias do passado falsas contêm uma grande componente de verdade, e que portanto se pode esperar que as teorias do presente e do futuro se aproximem da verdade. Além disso, alguns filósofos detectam um padrão de convergência, argumentando que as teorias científicas que se sucedem a outras aproximam-se cada vez mais da verdade. Estas teses pressupõem, contudo, uma noção de “aproximação à verdade”, ou verosimilhança. Veio a revelar-se surpreendentemente difícil atribuir um conteúdo bem determinado a esta noção. As primeiras tentativas para a definir, por parte de Popper e outros, revelaram-se incoerentes, e não é óbvio que uma elucidação satisfatória dessa noção seja possível.

Nos anos 80, alguns filósofos adoptaram uma abordagem naturalista em epistemologia da ciência. Em vez de tentarem identificar regras a priori do método científico, inspiraram-se na história da ciência e noutras disciplinas a posteriori para mostrar que estratégias metodológicas constituem de facto meios eficazes para se atingirem objectivos científicos. É possível combinar esta abordagem naturalista com o ponto de vista realista de que o objectivo da formulação de teorias científicas é a descoberta da verdade. Todavia, à luz dos argumentos mencionados acima, muitos filósofos da ciência naturalistas rejeitam a ideia de que a verdade seja um objectivo sensato para a ciência, investigando em vez disso estratégias para se atingirem objectivos teóricos como a simplicidade, o sucesso das previsões e a proficuidade heurística.

2. Voltando-nos agora para a metafísica da ciência, uma questão central é a análise da causalidade. Segundo David Hume, a causalidade, enquanto relação objectiva, é apenas uma questão de associação constante: um acontecimento causa outro se, e só se, os acontecimentos do primeiro tipo estiverem constantemente associados aos acontecimentos do segundo tipo. Esta análise gera, contudo, alguns problemas. Primeiro, há a questão da distinção entre genuínas leis causais da natureza e associações acidentalmente verdadeiras: ser um parafuso da minha mesa pode muito bem estar constantemente associado ao facto de ser feito de cobre, sem que seja verdade que esses parafusos sejam feitos de cobre porque fazem parte minha mesa. Em segundo lugar, há um problema quanto à direcção da causalidade: como distinguimos nós as causas dos efeitos, dado que uma associação constante de acontecimentos do tipo A com acontecimentos do tipo B implica imediatamente a associação constante de acontecimentos do tipo B com acontecimentos do tipo A? E, em terceiro lugar, há a questão da causalidade probabilística: será que as causas têm de determinar os seus efeitos, ou é suficiente que elas estejam probabilisticamente (e não “constantemente”) associadas a eles?

Muitos filósofos da ciência deste século preferiram falar acerca de explicação em vez de causalidade. De acordo com o modelo da cobertura por leis desenvolvido por Hempel, um acontecimento particular é explicado se a sua ocorrência puder ser deduzida da ocorrência de outros acontecimentos particulares com a ajuda de uma ou mais leis naturais. Mas isto não é muito diferente da análise humeana da causalidade, e como é de esperar enfrenta essencialmente os mesmos problemas. Como distinguimos leis de acidentes? Será que às vezes não somos capazes de deduzir “para trás” — como quando deduzimos a altura do mastro a partir do comprimento da sua sombra — apesar de não querermos dizer que o comprimento da sombra explica a altura do mastro? E não haverá casos em que somos capazes de explicar um acontecimento — o sr. X ter desenvolvido um cancro, por exemplo — por meio de outro — o facto de ele fumar sessenta cigarros por dia — apesar de não sermos capazes de deduzir o primeiro do segundo, uma vez que a relação entre eles é apenas probabilística?

Sobre a questão de distinguir leis de acidentes, há duas estratégias possíveis. A primeira permanece fiel ao ponto de vista humeano de que as proposições legiformes não afirmam nada mais do que a associação constante e tenta então explicar por que razão algumas asserções que exprimem associações constantes — as (legiformes) — são mais importantes do que as outras — as acidentais. A versão mais conhecida desta estratégia humeana, proposta originalmente por F. P. Ramsey e depois reavivada por David Lewis, argumenta que as leis são aquelas generalizações verdadeiras que podem ser encaixadas numa sistematização ideal do conhecimento; ou, na formulação de Ramsey, as leis são “uma consequência daquelas proposições que tomaríamos como axiomas se soubéssemos tudo e o organizássemos do modo mais simples possível num sistema dedutivo”. A estratégia não humeana alternativa, cujo defensor mais proeminente é D. M. Armstrong, rejeita o pressuposto de que as leis não implicam mais do que associações constantes, postulando em vez disso uma relação de “necessitação” que se verifica entre os tipos de acontecimentos que estão relacionados de modo legiforme, mas não entre aqueles que apenas estão associados acidentalmente.

Quanto à questão da direcção da causalidade, o próprio Hume apenas disse que, de entre dois acontecimentos constantemente associados, o acontecimento anterior era a causa e o posterior o efeito. Mas há algumas objecções a este uso da assimetria anterior-posterior para analisar a assimetria causa-efeito. Para começar, é pelo menos concebível que haja causas que sejam simultâneas com os seus efeitos, ou mesmo causas que sejam posteriores aos seus efeitos. Além disso, parece haver boas razões para querer fazer a análise em sentido contrário, usando a direcção da causalidade para analisar a direcção do tempo. Se fizermos isto, quereremos uma explicação da direcção da causalidade que seja temporalmente independente? Têm sido propostas algumas explicações desse tipo. David Lewis argumenta que a assimetria da causalidade deriva da “assimetria da sobredeterminação”: ao passo que a sobredeterminação dos efeitos pelas causas é muito rara, é perfeitamente normal as causas serem “sobredeterminadas” por um grande número de encadeamentos de efeitos independentes, cada um dos quais é condição suficiente para a causa anterior. Outros autores apelaram para uma assimetria probabilística relacionada para explicar a assimetria causal, fazendo notar que as diferentes causas de um dado efeito comum são normalmente probabilisticamente independentes umas das outras, mas que os diferentes efeitos de uma causa comum estão normalmente correlacionados probabilisticamente.

O advento da mecânica quântica (e em particular a infirmação empírica da desigualdade de Bell) persuadiu a maioria dos filósofos da ciência da falsidade do determinismo. De acordo com isto, procuraram desenvolver modelos de explicação causal segundo os quais as causas se limitam a tornar prováveis o seus efeitos, em vez de os determinar. O primeiro destes modelos, influenciado pela análise de Carl Hempel da explicação “indutivo-estatística” exigia que as causas conferissem aos seus efeitos uma probabilidade alta. Contudo, embora fumar inequivocamente cause o cancro, nunca o torna altamente provável. De modo que os modelos mais recentes apenas exigem que as causas aumentem a probabilidade dos seus efeitos, mesmo que apenas seja de um valor baixo para um valor ligeiramente menos baixo. Os modelos de causalidade probabilística precisam de se precaver contra a possibilidade de as associações probabilísticas entre acontecimentos poderem ser espúrias em vez de genuinamente causais, como a associação entre o ponteiro de um barómetro baixar e a chuva subsequente. É uma questão em aberto a de saber se tais associações espúrias podem ser rejeitadas por meios puramente probabilísticos, ou se é necessário introduzir-se critérios não probabilísticos.

A noção de probabilidade tem interesse filosófico independentemente da sua relação com a causalidade. Há várias maneiras diferentes de interpretar o cálculo matemático das probabilidades. As teorias subjectivas da probabilidade, que se desenvolveram a partir da teoria lógica da probabilidade de J. M. Keynes, encaram as probabilidades como graus subjectivos de crença. Esta é a interpretação adoptada pelos bayesianos partidários da teoria da confirmação. Contudo, a maior parte dos filósofos da probabilidade argumentam que precisamos de uma interpretação objectiva da probabilidade para além desta análise subjectiva. Segundo a teoria da frequência de Richard von Mises, a probabilidade de um dado tipo de resultado é o limite da frequência relativa com que ele ocorre em sequências cada vez mais longas extraídas de uma qualquer “classe de referência” infinita. Uma dificuldade que se põe à teoria da frequência é a de que ela atribuirá uma probabilidade diferente a um dado resultado isolado quando esse resultado for considerado como membro de diferentes classes de referência. Para cancelar esta consequência, Karl Popper propôs que as probabilidades fossem encaradas como propensões de cenários experimentais específicos, no sentido em que só as frequências de classes de referência geradas por repetições do mesmo cenário experimental deveriam contar como probabilidades genuínas. As versões posteriores desta teoria das propensões abandonam o apelo a classes de referência infinitas, tomando simplesmente a probabilidade como uma característica quantitativa de cenários específicos, que é exibida pelas frequências nas repetições desses cenários, mas que não pode ser definida em termos de frequências.

A interpretação filosófica da probabilidade objectiva está intimamente relacionada com a nossa compreensão da mecânica quântica moderna. A interpretação da mecânica quântica, porém, é ainda um problema em aberto na filosofia da física. Tomada à letra, a mecânica quântica diz que, quando os sistemas físicos são medidos, adquirem subitamente, para parâmetros observáveis, valores definidos que não tinham antes. A teoria especifica as probabilidades de diferentes desses valores, mas não pode prever sem margem para dúvida quais serão observados. A reacção de Albert Einstein foi a de que a mecânica quântica tinha de ser incompleta, e que uma teoria futura acabaria por encontrar as “variáveis ocultas” que efectivamente determinam os resultados observados. Contudo, a possibilidade de uma teoria comprometida com tais variáveis ocultas foi entretanto concludentemente desacreditada: John Bell mostrou que qualquer teoria desse género conteria previsões diferentes das da mecânica quântica, e há resultados experimentais que infirmam essas previsões. Permanece, então, o problema de explicar as medições quânticas. Medições são, afinal de contas, processos físicos. Contudo, a mecânica quântica não explica a razão por que as medições determinam valores definidos observáveis; apenas o dá de barato. É provável que uma compreensão satisfatória das medições quânticas tenha de aguardar uma interpretação radicalmente nova da teoria.

Um outro aspecto metafísico da filosofia da ciência é a questão da explicação teleológica. Esta é basicamente uma questão de filosofia da biologia, visto que é no domínio da biologia que encontramos os exemplos paradigmáticos da explicação teleológica, como quando dizemos que a clorofila está presente nas plantas com o fim de facilitar a fotossíntese. Explicações como esta são filosoficamente interessantes porque explicam as causas pelos efeitos, e parecem assim ir contra o modelo habitual que consiste em explicar os efeitos pelas causas. Carl Hempel argumentou que tais explicações são apenas uma variante de explicação pelo modelo de cobertura por leis em que o facto usado para explicar — a fotossíntese — calha ocorrer num momento posterior ao do facto explicado — a clorofila. Há, porém, contra-exemplos a esta proposta e as tentativas de a restringir impondo a condição de que os elementos envolvidos façam parte de um sistema auto-regulador revelaram-se problemáticas. A maioria dos filósofos da ciência favoreceria agora uma abordagem diferente, de acordo com a qual as explicações teleológicas da biologia são uma forma de explicação causal disfarçada, nas quais é feita referência implícita a uma hipotética história da selecção natural durante a qual o elemento em questão — a clorofila — foi favorecido porque produziu o efeito relevante — a fotossíntese. Alguns filósofos interrogar-se-iam se estas explicações “para trás” merecem de facto ser chamadas “teleológicas”, visto que não explicam de facto o presente por meio do futuro, mas antes por meio de histórias anteriores de selecção; esta questão, no entanto, é essencialmente terminológica.

“Ciências especiais” como a biologia, a química, a geologia, a meteorologia e assim por diante levantam a questão do reducionismo. Diz-se que uma ciência pode ser “reduzida” a outra se as suas categorias puderem ser definidas em termos das categorias da segunda, e as suas leis explicadas também em termos das leis da segunda. Os reducionistas argumentam que as ciências formam uma hierarquia na qual as que estão num nível mais alto podem ser reduzidas às que estão num nível mais baixo: assim, a biologia pode ser reduzida à fisiologia, a fisiologia à química, e por fim a química à física.

A questão do reducionismo tanto pode ser vista histórica como metafisicamente. A questão histórica é a de saber se a ciência progride tipicamente pela redução das teorias anteriores às que se lhes seguem. A questão metafísica é a de saber se as diferentes áreas da ciência descrevem realidades diferentes, ou antes uma mesma realidade física descrita com diferentes níveis de pormenor. Embora muitas vezes sejam discutidas simultaneamente, trata-se de duas questões diferentes. Tomado como uma tese geral, o reducionismo histórico é falso, por razões relacionadas com a “meta-indução pessimista” discutida acima: embora haja alguns episódios históricos em que velhas teorias científicas foram reduzidas a novas, há outros tantos em que as novas mostraram que as velhas eram falsas, e em que portanto as segundas foram eliminadas e não reduzidas. Isto não significa, todavia, que o reducionismo metafísico seja falso. Mesmo que a ciência proceda em direcção à verdade total de modo errático, pode haver razões gerais para se esperar que esta verdade total, quando finalmente for alcançada, se reduza à verdade física.

Um argumento possível desse género advém da interacção causal entre os fenómenos discutidos nas ciências especiais e os fenómenos físicos. Assim, os fenómenos biológicos, geológicos e meteorológicos têm todos efeitos físicos; e isto implicaria aparentemente que eles fossem compostos por elementos físicos. É questionável, porém, que isto seja suficiente para estabelecer o reducionismo de larga escala, em vez da tese da identidade-espécime segundo a qual cada acontecimento específico de tipo especial é idêntico a algum acontecimento físico específico. Podemos aceitar a identidade-espécime, e mesmo assim rejeitar a identificação entre tipos especiais e tipos físicos. Se o fizermos, rejeitamos também a tese reducionista de que todas as leis especiais podem ser explicadas pelas leis físicas. Em vez disso, defenderemos que há leis especiais sui generis, padrões que abrangem tipos especiais que variam na sua constituição física, e que portanto não podem ser explicados apenas por leis físicas.

David Papineau

Bibliografia

Tradução de Pedro Santos
Texto extraído de Oxford Companion to Philosophy, org. por Ted Honderich (OUP, 1995, pp. 809-812).
Termos de utilização ⋅ Não reproduza sem citar a fonte