Silvio Atanes
A observação clínica, o conhecimento fisiológico e o desenvolvimento técnico trabalharam juntos para aperfeiçoar um instrumento que se tornou indispensável
A importância da observação da temperatura do corpo humano é conhecida desde a Grécia de Hipócrates (século V a.C.) Os médicos gregos, entretanto, precisavam de muito tato para tomar a temperatura de seus pacientes. Literalmente, pois só dispunham das mãos para fazer essa avaliação. Já na Idade Média, a febre era considerada muito importante na prática médica, mas ainda não existia a medição cientifica da temperatura. A idéia de um instrumento capaz de mediu a temperatura foi talvez inspirada nos escritos de Héron de Alexandria (século I d.C.), editados na Itália, em 1575. Numa lista de estranhos inventos descritos, havia uma enigmática “fonte que goteja ao sol”. Os cientistas italianos da época propuseram uma explicação para o fenômeno: seria a expansão de um liquido devido ao calor. Assim, no fim do século XVI, surgia o termoscópio a ar, precursor imediato do termômetro.
Os cientistas italianos da época propuseram uma explicação para o fenômeno: seria a expansão de um líquido devido ao calor. Assim, no fim do século XVI, surgia o termoscópio a ar, precursor imediato do termômetro.
O termoscópio consistia em um frasco bojudo de vidro, de gargalo fino e comprido. Ao se aquecer o frasco, o ar em seu interior se dilatava, sendo parcialmente expelido. Em seguida, virava-se o frasco para baixo, com a boca mergulhada numa vasilha cheia de água colorida ou álcool. Quando o ar do frasco resfriava, voltava ao volume normal, fazendo a água subir dentro do gargalo. Dessa forma, as mudanças na altura da coluna de água indicavam variações na temperatura ambiente. Até então, ninguém percebera aplicação médica para o instrumento. Somente em 1611 o médico italiano Santorio Santorre (1561-1636) idealizou uma escala para o termoscópio, transformando-o no primeiro termômetro clinico de que se tem notícia.
Santorre tinha um grande interesse em medir a temperatura corporal e fez várias experiências nesse sentido na Universidade de Pádua, onde era professor. A eficiência desse termômetro, todavia, deixava muito a desejar, pois não levava em conta a influência da pressão atmosférica sobre o nível da água. Por volta de 1632, o médico francês Jean Rey (1583-1645) inventou o termômetro a líquido, que usava água em vez de ar como indicador de mudanças na temperatura. Ele simplesmente encheu um frasco, semelhante ao de Santorre, até a água alcançar o nível do inicio do gargalo. Conforme a temperatura variava, variava também a altura de água no gargalo, sujeita ainda às variações atmosféricas. Esse problema seria solucionado com o surgimento do primeiro termômetro selado, construído e, 1654 por Ferdinando II de Medici(1610-1670), grão-duque da Toscana. Tratava-se de um tubo de vidro fechado hermeticamente e contendo álcool que, como foi descoberto, se dilata mais rapidamente do que a água.
Durante o século XVII, vários termômetros foram construídos, mas sem nenhum rigor científico. Por isso, as medições feitas por aparelhos diferentes nunca coincidiam. Em 1665, o físico e astrônomo holandês Christiaan Huygens (1629-1695) sugeriu uma escala padrão, dividida em 100 graus e tendo como pontos fixos as temperaturas de congelamento e de ebulição da água. Mas não foi ouvido: no início do século XVIII, eram conhecidas nada menos que 35 escalas, com base em referencias tão precisas como, por exemplo, o ponto de derretimento de manteiga ou temperatura dos úmidos porões do Observatório de Paris.
Para acabar com essas disparidades, só mesmo o extremo rigor científico do físico alemão Gabriel Daniel Fahrenheit (1689-1736), fabricante de instrumentos meteorológicos em Amsterdam. Descontente com a péssima qualidade dos termômetros holandeses da época, ele fabricou um a álcool, em 1709, extremamente preciso e confiável. Na sua escala, o ponto zero era a temperatura de uma mistura de neve e sal amoníaco, a mais baixa que ele conseguiu medir, equivalente a -18° C; o ponto de fusão do gelo correspondia a 32 graus (0°C); e o ponto de ebulição de água, a 212 graus (100° C).
Em 1714, ao descobrir que o mercúrio se dilata mais uniformemente do que o álcool, Fahrenheit inventou o primeiro termômetro de mercúrio fechado a vácuo, driblando não só a pressão atmosférica mas o próprio ar. Então era possível dizer que o termômetro realmente media a temperatura. Graças ao trabalho de Fahrenheit, o termômetro ganhava status de instrumento científico.
Por essa razão, ainda no século XVIII, o termômetro começou a ser usado regularmente nos hospitais e nas universidades européias, devido principalmente às pesquisas do médico holandês Hermann Boerhaave (1668-1738). Ele percebeu que a temperatura corporal era tão importante quanto o pulso para avaliar o estado de saúde de seus pacientes. Em 1742, o astrônomo sueco Anders Celsius (1701-1744) aproveitando as idéias de Huygens, fez um termômetro de mercúrio com escala de zero a cem graus, em que a temperatura normal do corpo correspondia a 36,7 graus (98,6 Fº), logo incorporado à prática médica, pois a escala centígrada é mais fácil de ser lida.
Foi fundamental também para a termometria clínica o trabalho do médico alemão Karl August Wunderlich (1815-1877), que descobriu que a febre era um sintoma, e não uma doença.
Um problema crucial, entretanto, ainda tinha de ser vencido: impedir que o mercúrio descesse quando o termômetro fosse retirado da boca ou da axila do paciente, para evitar erros de leitura. Para resolver a questão, Sir William Aitken (1825-1892), médico escocês de Edimburgo, inventou, em 1852, o chamado termômetro da máxima Aitken, autor de vários ensaios sobre a prática de Medicina, estava começando a estudar certas infecções dos pulmões causadas por febres contagiosas. Para isso, as temperaturas tinham de ser medidas com muita atenção, acrescendo-se alguns décimos de grau, aleatoriamente, para compensar a queda do mercúrio. Em conseqüência, os auxiliares de Aitken liam as marcações dos termômetros cometendo grosseiros arredondamentos, que multiplicavam os erros na hora de elaborar o gráfico de variação da temperatura de cada paciente. Como as medições ficassem cada vez mais constantes, às vezes tirando a temperatura de várias pessoas ao mesmo tempo, Aitken idealizou um estrangulamento no tubo de vidro, logo acima do bulbo de mercúrio.
Assim, depois que o mercúrio se dilatava, estacionava na graduação correspondente à temperatura máxima registrada, o que permitia que ele próprio, com a calma de um bom clinico geral, lesse a temperatura, alguns providenciais minutos após a medição, sem o “chute” de seus pupilos. Para o mercúrio descer, só era preciso sacudir o termômetro, como se faz até hoje.
No decorrer do século XX, poucas mudanças ocorreram no termômetro clínico e uma delas foi a leitura eletrônica digital: trate-se de um termômetro comum, com um mostrador semelhante ao de um relógio digital; alguns modelos emitem um “bip” quando é alcançada a temperatura máxima.
Para o futuro, o que se espera é o aperfeiçoamento do uso de semicondutores em termômetros. Nesses aparelhos, a temperatura é calculada mais rápida e precisamente, a partir da variação da corrente elétrica através de um chip de silício – sua condutividade varia conforme a temperatura. Com a crescente microminiaturação dos circuitos eletrônicos, é bem possível que, dentro de poucos anos, os médicos tirem a temperatura com o termômetro na ponta do dedo dos pacientes – como faziam seus colegas gregos, 25 séculos atrás.