Um assunto fascinante para mim é a entropia, que em geral é definido como desordem, que é um de seus entendimentos estatísticos. Mas será que é isso (ou só isso) mesmo?
Einstein gostava da termodinâmica, que achava a mais universal das teorias, e muito provavelmente porque temperatura seja um conceito que transita por toda a física. Ele dizia que é uma teoria de princípios, ou seja, independente de modelos (não construtiva). Note-se que Einstein usou o conceito de entropia para investigar a radiação de origem térmica, chegando com isso aos quanta de luz. Claro, Einstein também criou sua própria mecânica estatística impondo limites para a validade das leis da termodinâmica.
A palavra entropia foi criada por Clausius para que fosse semelhante a palavra energia. Ele usou o grego para criar essa palavra que quer mais ou menos dizer o "ato de dar a volta". Quando um determinado processo é reversível, então, a conservação de entropia significa a possibilidade de recomeço. Se o processo não é reversível, não existe essa possibilidade e a entropia não se conserva.
Entropia é uma quantidade extensiva, isto é, ela depende de determinadas características do sistema (como massa, por exemplo). Infelizmente, a entropia não pode ser medida diretamente em um sistema (não existe um entropimetro...). Na verdade, seguindo Von Neumann, ninguém sabe de fato o que é a entropia...
Vou gastar alguns posts falando sobre essa coisa estranha, mas fantástica, chamada entropia.