Capçalera
 FiloXarxa Diccionari enciclopèdic de filosofia: autors, conceptes, textos

Temes  -

El saber filosòfic El coneixement La realitat L'ésser humà L'acció humana La societat

Història -

Filosofia antiga i medieval Filosofia moderna Filosofia contemporània Mapa del web Ajuda i altres Descarregar "font grega"
Cerca continguts al web Pensament: autors, conceptes, textos, obres ...
Loading

entropia EPIST.

(del grec ¦nJD@B\", volta, retorn) Magnitud termodinàmica simbolitzada per S introduïda per Clausius que expressa la funció d'estat d'un S. Carnotsistema aïllat. Carnot ja havia establert que les transformacions d’energia només són possibles com a conseqüència de diferències prèvies d’intensitat (veure principi de Carnot). El calor només pot, doncs, transformar-se en treball quan passa d’una font calent a una altra més freda. Però en aquest procés se segueix desprenent calor que ja no pot transformar-se en treball. Per això, un sistema aïllat va progressivament igualant les seves diferències d’intensitat fins a assolir] una temperatura uniforme. En aquest estat d’uniformitat ja no és possible cap altra transformació, el que es coneix com mort tèrmica d’un sistema. L’entropia es defineix com a: 

on S1 -S2 expressa la variació d’entropia en dos estats diferents, dQ expressa la quantitat de calor i T, la temperatura absoluta. La unitat d'entropia és el «clausius», o variació entròpica experimentada per un sistema que absorbeix un joule a la temperatura d'un kelvin.

BoltzmannEn un procés reversible que precisa la concurrència de dues fonts tèrmiques, l’entropia es manté constant, ja que el sistema i les fonts es compensen mútuament. En canvi, en un procés irreversible sempre hi ha un augment de l’entropia. El final del procés condueix a la mort tèrmica, que coincideix amb el seu grau d’estabilitat màxima, o grau de major probabilitat. Aquesta magnitud expressa també el grau de desordre molecular d’un sistema: quant més gran és el desordre d'un sistema més gran és la seva entropia. Aquesta última formulació expressa la relació entre l’entropia i la probabilitat termodinàmica (W), que es formalitza com: S = k [ln] W (on k és la constant de Boltzmann). Així, per exemple, un sòlid cristal·lí té una estructura definida i ordenada amb menor entropia (més ordenat) que el mateix material fos, en què les seves molècules no estan estructurades a la xarxa cristal·lina (menys ordenat).

Ja que l’entropia és també una mesura de la probabilitat, en cosmologia s’ha especulat que el destí sencer de l’univers és la mort tèrmica, estat final de plena igualació o de màxim desordre. Això suposa que tot procés és irreversible, de manera que el creixement de l’entropia seria també una mesura de l'anomenada fletxa del temps. En canvi, els fenòmens vitals (especialment el creixement i la reproducció) manifesten una entropia negativa o neguentropia, ja que tendeixen a formar ordre a partir d’estats menys ordenats. No obstant això, en el còmput global, a causa de les necessitats de nutrició i al metabolisme, també els organismes vius contribueixen al creixement de l’entropia.

Aquesta magnitud termodinàmica també ha estat utilitzada en l’àmbit de la teoria de la informació i en la cibernètica. En aquest cas representa la mesura de la incertesa existent davant un conjunt de missatges, del qual va a rebre's un sol. És a dir, si per a un llenguatge hi ha N símbols i cadascun d’ells té una probabilitat pi, la suma dels productes de cada probabilitat pel seu logaritme (amb signe canviat) defineix l’entropia de la font, de manera que

A l'usar logaritmes amb base dos s’obté l’entropia en bits, i expressa el contingut mitjà d’informació d’un símbol per a un conjunt de N elements.


 


Licencia de Creative Commons
Aquesta obra està sota una llicència de Creative Commons.