GS Nguyễn Tiến Dũng zetamu
- Lịch sử đã cho VN một sứ mệnh anh hùng: hết đuổi giặc Tàu, giặc Pháp, đến giặc Mỹ, rồi lại đuổi gì tiếp ?
- Tiên sư cha thằng lịch sử, toàn bắt VN làm những việc khó !
Tay sai của thằng lịch sử
Thằng lịch sử đúng là oái oăm, làm khổ VN. Nhưng thằng lịch sử cũng không làm được vậy, nếu không có một quỉ sứ tay sai đắc lực của nó mang tên Ên Trô Pỳ. Nghe có vẻ như tên Tàu, nhưng thực ra đây là tên Tây. Thằng quỉ sứ này luôn làm những việc phá phách, nhưng nó ẩn danh cho đến tận năm 1865 mới bị một lão người Đức tên là Clausius phát giác ra, và gọi nó là thằng Entropy, có nghĩa là thằng xáo trộn hỗn độn. Theo gốc Hy Lạp, “tropy” (τροπή ), có nghĩa là thay đổi, chuyển hướng, còn “en” có nghĩa là “bên trong”. Khi sang tiếng Việt thì Entropy trở thành Ên Trô Pỳ (chữ trô đọc chờ nặng). Số là, có lần tôi gọi taxi để đi đến Ciputra. Tôi nói Ci-pu-t-ra, anh lái taxi mãi mới hiểu ra là Ci-pu-tra, và chê tôi nhà quê không biết nói tiếng Tây. Từ đó tôi cứ nói Ci-pu-tra, ai cũng hiểu, và entropy thì gọi là Ên Trô Pỳ cho chuẩn.
Ở đâu có lộn xộn, là ở đó có En Trô Pỳ hoành hành. Không chỉ ở những trận đánh nhau chết cả triệu người, mà ngay trong căn nhà nhỏ của bạn, En Trô Pỳ cũng ra tay quấy phá. Bạn có biết vì sao phòng của bạn cứ dọn sạch được 1-2 hôm lại bừa đâu vào đấy không, vì sao hàng xóm hay đồng nghiệp thỉnh thoảng lại cãi nhau chí chóe không ? Chính là tại bởi Ên Trô Pỳ!
Ên Trô Pỳ luồn lách mọi nơi, ảnh hưởng đến mọi vật, một cách cộng tính: Ên Trô Pỳ (độ lộn xộn) của một tổng thể các vật (các “systems”), thì bằng tổng của các Ên Trô Pỳ của các vật. Một đặc điểm nhận biết thằng En Trô Pỳ là, nó là thằng ăn hại năng lượng. Ví dụ, khi xe ô tô đi trên đường phẳng nằm ngang vẫn tốn xăng, chính là vì thằng Entropy ăn mất năng lượng do động cơ chạy xăng tao ra, qua các thứ ma sát. Cụ Newton đã nói năng lượng luôn bảo toàn, không bị mất đi. Thế nhưng, năng lượng dự trữ trong xăng là năng lưỡng hữu ích, có thể dùng để làm việc này việc nọ, còn năng lượng khi đã bị thằng En Trô Py ăn vào, thì trở thành năng lượng vô dụng, ta khó có thể đòi lại để dùng đươc nữa! Tuy nhiên, bản thân Ên Trô Pỳ không phải là năng lượng, nó chỉ là thằng phá phách biến năng lượng hữu dung thành vô dụng trong quá trình béo lên của nó thôi. Lão Clausius cũng biết điều đó; đầu tiên lão định tìm từ gì tương tự như năng lượng để đặt tên cho nó, trước khi nghĩ ra từ Entropy.
Càng nóng càng khó béo lên
Clausius nhận thấy rằng, chỗ nào càng nóng thì entropy càng khó béo lên, tức là càng cần bơm vào nhiều năng lượng (ở dạng nhiệt năng) để nó béo lên. Nói một cách chính xác hơn:
trong đó là độ lớn của entropy (của một hệ nào đó), là sự thay đổi độ lớn của Ên Trô Pỳ, là nhiệt độ (tuyệt đối), còn là độ thay đổi nhiệt năng của hệ đó. Nói cách khác, nếu ta cho thêm một lượng nhiệt năng vào một vật nào đó đang ở nhiệt độ , thì entropy của nó sẽ tăng lên một lượng là . Ngược lại, nếu ta hút đi một lượng nhiệt năng là , thì entropy của vật cũng giảm đi một lượng là .
Công thức trên cũng cho thấy, đơn vị đo của entropy là đơn vị năng lượng chia cho nhiệt độ. Người ta thường viết đơn vị của entropy là , trong đó J là Joule là đơn vị năng lượng dùng để đo nhiệt năng, con K là đơn vị độ Kelvin để đo nhiệt độ.
Theo công thức phía trên, để giảm entropy của một vật, cần rút bớt nhiệt ra. Nhưng nhiệt rút ra đó đi vào chỗ nào ? Theo một định luật vật lý (gọi là định luật nhiệt động học thứ hai), chỗ nhận được nhiệt đó phải lạnh hơn là vật ban đầu nếu ta không muốn tiêu thêm năng lượng vào đó. (Khi Bác Hồ ôm cục gạch nóng, thì là gạch sưởi cho Bác chứ không phải Bác sưởi cho gạch). Chẳng hạn chỗ đó có nhiệt độ . Khi đó phần được truyền nhiệt sang sẽ có entropy tăng lên một lượng bằng
trong đó là lượng nhiệt chuyển từ vật nóng sang vật lạnh. Vật nóng thì có entropy giảm đi một lượng bằng . Công lại ta có
(vì và ). Có nghĩa là entropy của tổng hai vật tăng lên! Đây chính là định luật:
Ên Trô Pỳ làm gì cũng đúng
Theo định luật này, thì entropy của thế giới không thể giảm đi, mà chỉ có thể tăng lên theo thời gian. Nếu entropy ở chỗ nào đó giảm đi, thì ở các chỗ xung quanh sẽ phải tăng lên một lượng nhiều hơn lượng giảm đi đó để bù lại, và tính tổng cộng thì vẫn là tăng lên. Định luật Ên Trô Pỳ làm gì cũng đúng chẳng qua là một cách phát biểu khác của định luật nhiệt động học thứ hai.
Chính vì sự tăng lên không ngừng theo thời gian của entropy, nên thời gian không đảo nghịch được, và không thể có các chuyến “du hành vũ trụ” đi ngược lại thời gian được! Giá ta có thể đi về thế kỷ 17 tán phét với cụ Newton một lúc rồi quay lại thế kỷ 21 thì vui biết mấy. Nhưng quỉ sứ entropy không cho ta làm điều đó!
Có thể nói, thằng entropy ngày càng béo ra bằng cách ăn vào năng lượng hữu ích biến thành năng lượng vô ích để rồi làm loạn thế giới, nhưng ta không có cách nào “chọc mỡ” nó cả!
Nếu đến một lúc nào đó, thằng En Trô Pỳ ăn hết năng lượng của thế giới này thì sao? Lúc đó thì nó đạt đến mức béo nhất có thể (gọi là maximal entropy). Nhưng lúc đó cũng sẽ không còn năng lượng có thể sử dụng được nữa, và đó sẽ là ngày tận thế của thế giới. Mấy ông hủ lý thì gọi đó là ngày của cái chết nhiệt (heat death hay thermal death). Nhưng ngày đó nếu có xảy ra, cũng còn phải hàng ty tỷ năm nữa, ta chưa vội gì mà phải “mặt ủ mày chau”!
Một mình chống lại Ên Trô Pỳ
Tuy Ên Trô Pỳ làm gì cũng đúng, nhưng thỉnh thoảng vẫn có các anh hùng hảo hớn dám ra đương đầu với nó. Một trong các anh hùng hảo hớn đó là thần đồng Ludwig Boltzmann (1844-1906), một nhà toán học mà khi 25 tuổi đã là giáo sư (full professor) ở nước Áo. Từ những năm 1870, Boltzmann đã tìm cách vạch mặt bản chất chân tướng của thằng Ên Trô Pỳ bằng cơ học thống kê, và đi đến công thức sau:
trong đó là một hằng số (gọi là hằng số Boltzmann), còn là số trạng thái vi mô (microstate) khác nhau mà nhìn vào hệ ta không phân biệt được (tức là cho cùng một trạng thái vĩ mô của vật). Trong suốt hơn 30 năm từ khi Boltzmann nghĩ ra công thức trên, thì bị thằng Ên Trô Pỳ trả thù bằng cách xúi giục các nhà khoa học lớn khác (như Planck, Poincaré) chế diễu công thức này, coi nó lẩm cẩm, khiến cho Boltmann uất chí đến mức tự tử ở Duino (Italia) vào năm 1906.
Ngày nay các nhà hủ lý đều chấp nhận công thức trên của Boltzmann, và trên bia mộ của ông ta có khắc nó.
Theo công thức Boltzmann, thì càng nhiều khả năng (nhiều microstate có thể) càng lắm hỗn loạn (entropy càng cao). Khi ta ghép 2 hệ với nhau, thì số khả năng của tổng bằng tích của các số khả năng, trong khi entropy của tổng chỉ là tổng của các entropy. Bởi vậy để chuyển từ số khả năng sang entropy phải lấy log.
Làm sao để tính entropy ?
Đây có vẻ là vấn đề rất khó khăn. Đối với các vật đơn giản, ví dụ nhưng một lượng nguyên chất của một loại phân tử nào đó, thì có thể dùng công thức của Clausius để mà tính: Khi nhiệt độ bằng 0K (= – 273 độ C), thì các phân tử cũng đứng im không có thể nhúc nhích gì hết, bởi vậy coi như là “có trật tự”, và entropy của nguyên chất khi nhiệt độ bằng 0 (độ Kelvin) được coi là bằng 0. (Đây là định luật thứ 3 của nhiệt động học). Từ mức nhiệt độ sát 0, ta nhồi nhiệt năng từng ít một vào vào để nhiệt độ tăng lên dần đến mức ta muốn, và trong quá trình nhồi đó đo nhiệt độ, rồi lấy các lượng nhiệt năng cho vào chia cho nhiệt độ để ra các độ tăng của entropy, rồi cộng chúng lại với nhau. (Nói một cách toán học hơn, thì là lấy tích phân của dạng vi phân ). Ví dụ, người ta tính ra được rằng 1kg nước (H2O) ở nhiệt độ 25 độ C có entropy bằng 367 J/K [edit: đây là con số tương đối tính từ 1 mốc nào đó, còn con số tuyệt đối, theo GS Đàm Thanh Sơn, là những 3890 J/K]. Tất nhiên, đây chỉ là một trong các cách tính, và các hủ lý có thể còn sáng tạo ra nhiều cách khác. (Xem chẳng hạn: R.K. Rajput, A textbook of engineering thermodynamics).
Tại sao tủ lạnh lại lạnh ?
Bình thường, theo định luật thứ hai của nhiệt học, nhiệt phải truyền từ chỗ nóng sang chỗ lạnh (và trong quá trình truyền nhiệt đó thì entropy tăng lên). Thế nhưng tủ lạnh mà máy điều hòa nhiệt độ có vẻ làm ngược lại: tủ lạnh hút nhiệt bên trong tủ thổi ra ngoài, làm bên trong thì lạnh đi, còn bên ngoài nóng lên. Có sự mâu thuẫn nào ở đây không ? Tất nhiên là không, vì thằng Ên Trô Pỳ làm gì cũng đúng, đời nào chịu thua thiệt. Nó chỉ cho phép tủ lạnh hay máy điều hòa làm lạnh với điều kiện là phải xì cho nó năng lượng: khi máy điều hòa làm giảm nhiệt năng trong phòng, thì làm tăng nhiệt năng ngoài trời một lượng nhiều hơn là lượng giảm đi trong phòng, và độ chênh lệch giữa hai lượng chính là lượng điện năng mà máy tiêu thụ. Nhiệt độ ngoài trời mà càng cao hơn bên trong nhà, thì càng phải cúng nhiều điện năng cho thằng Ên Trô Py nó mới cho phép thổi nhiệt ngược từ chỗ lạnh trong nhà ra chỗ nóng ngoài trời ! Điện có thể được dùng để hút nhiệt qua hiệu ứng Peltier, hoặc qua cách nén khí bằng compressor rồi sử dụng hiệu hứng thay đổi áp suất dẫn đến thay đổi nhiệt sau đó, hoặc là các cách khác, nhưng kiểu gì thì cũng phải nộp cống cho thằng Ên Trô Pỳ.
Những kẻ “ăn theo”
Như người ta thường nói “không chống được chúng, thì hãy theo chúng”. Có những kẻ đã khôn ngoan đi ăn theo, mượn vía Ên Trô Pỳ. Đầu tiên có thể kể đến Claude Shannon (1916-2001), cha đẻ của lý thuyết thông tin. Khi Shannon nghĩ ra công thức đo lượng thông tin (hay là lượng thông tin bị mất mát đi khi truyền tin) vào quãng những năm 1944-1948, định gọi nó là “độ bất xác định”, nhưng John von Neumann đã khuyên nên đặt tên nó là entropy, với hai lý do: một là công thức của Shannon trông giống y chang công thức entropy trong vật lý thống kê (như kiểu công thức của Boltzmann), và hai là “không ai thực sự biết entropy là gì, nên cậu gọi như vậy thì sẽ lợi thế khi tranh luận!”.
Nếu không gian xác suất chia làm n tập con với các xác suất tương ứng (), thì entropy của phép chia này bằng
Hiểu công thức trên như thế nào ? Để cho đơn giản, hình dung là chia đều thành 8 phần, mỗi phần xác suất 1/8, khi đó entropy bằng 3. Số 3 ở đây hiểu là “3 bit thông tin”: Xét 8 số nhị phân có 3 chữ số: 000, 001, 010, 011, 100, 101, 110, 111. Giả sử cần lấy ra 1 số trong 8 số đó. Để biết là cần lấy ra số nào, thì cần có 3 bit thông tin: chữ số đầu là gì, 0 hay 1, là 1 bit thông tin, chữ số thứ 2 cũng ứng với 1 bit, và chữ số thứ 3 cũng 1 bit.
Sau khi Shannon “ăn theo” thì tiếp ngay đến Kolmogorov, với định nghĩa “metric entropy” cho các hệ động lực, vào đầu những năm 1950. Tiếp theo đó là một loạt các nhà toán học khác như Sinai, Adler, Dinaburg, Bowen, … nghiên cứu metric entropy rồi topological entropy cho các hệ động lực, rồi tiếp đến Ghys, Walczak, Langevin xét entropy hình học cho các phân thới, v.v. Đấy mới chỉ là tụi “làm toán ăn theo” không kể các hội vật lý, tin học, v.v. khác ăn theo entropy.
Kẻ thừa giấy vẽ con voi này cũng đang đi ăn theo với “entropy của các cấu trúc hình học”, mà trường hợp riêng là các đa tạp Poisson, hay các singular distributions nào đó. Việc nó liên quan đến quỉ sử Ên Trô Pỳ (trong tự nhiên) thế nào thì chưa hề rõ.
Trong kinh tế, những kẻ ăn theo cũng đưa vào khái niệm corporate entropy, để chỉ sự rắm rối của các doanh nghiệp dẫn đến giảm hiệu quả lao động.
Entropy của thức ăn
Một lần kẻ thừa giấy vẽ voi này có được hầu chuyện Alain Connes trong một bữa đánh chén. Câu chuyện huyên thuyên một lúc không hiểu sao lại nhảy sang entropy. Connes say sưa với lý thuyết entropy về thức ăn của mình: thức ăn vào bụng thì kiểu gì cũng sẽ phải đạt mức entropy nào đó. Hãy để cho dạ dày và ruột của ta làm việc đó (tăng entropy của thức ăn lên, là một cách làm giảm entropy của bản thân chúng ta, giúp ta khỏe lên). Đừng ăn thức ăn có entropy cao sẵn (khi đó cơ thể người còn ít việc để làm, không làm giảm entropy của người đi được). Hẵy học tập người Nhật: đồ ăn của họ thường ở dạng entropy thấp (ví dụ như ăn cá sống). Đừng có ăn nhiều đồ đã băm nát trộn lẫn xào xáo nhiều … Cũng có thể đồ ăn có entropy thấp là một trong các bí quyết sống lâu của người Nhật thật.
Entropy âm ?
Trong lúc Connes kể chuyện về entropy của thức ăn, thì kẻ này có liều mình hỏi một câu provocative: thế entropy có âm được không ? Connes liền kể chuyện Boltzmann bị người đời không hiểu dẫn đến chán đời tự tử ra sao.
Tất nhiên theo các công thức của Boltzmann hay Shannon hay này nọ, thì entropy không thể âm. Thế nhưng câu hỏi “triết học” vì sao entropy lại phải dương không hẳn là câu hỏi dở hơi, đặc biệt khi ta coi mọi thứ chỉ là tương đối. Năng lượng có thể âm thoải mái không sao, vì nếu lấy hàm năng lượng trừ đi một hằng số, thì không hề ảnh hưởng đến phương trình chuyển động. (Hay như Dirac nghĩ ra các phản hạt xả láng, âm có làm sao đâu ?!) Entropy cũng vậy, nếu trừ đi một hằng số thì có lẽ chẳng ảnh hưởng gì hết đến các lý thuyết, vì cái người ta đo thực ra là độ thay đổi entropy, chứ không phải entropy tuyệt đối.
Kẻ vẽ voi này đi tìm hiều về “entropy âm”, thì phát hiện ra có khái niệm đó thật! Chính Schroedinger đưa ra khái niệm “negative entropy”, hay còn gọi là negentropy, trong quyển sách What is life. Thực ra thì cũng không có gì dám “báng bổ” quỉ sử Ên Trô Pỳ về bản chất. Có thể coi entropy + negentropy là hằng số, tức là negentropy là phần “dư ra” chưa bị entropy chén mất, và phần này ứng với phần năng lượng còn dùng được. Sự sống có được là nhờ có negentropy.
Entropy của các cấu trúc tổ chức xã hội ?
Một câu hỏi thú vị đặt ra với các nhà xã hội học: các mô hình, cơ chế xã hội nào tạo entropy cao nhất, làm tăng entropy nhanh nhất ?
Câu hỏi này rất khó, kẻ vẽ voi không dám vẽ bậy ở đây. Nhưng trộm nghĩ rằng các cơ chế “cào bằng”, “xin cho”, tham nhũng v.v. ắt hẳn dẫn đến entropy cao ?!
- Tiên sư cha thằng lịch sử, toàn bắt VN làm những việc khó !
Tay sai của thằng lịch sử
Thằng lịch sử đúng là oái oăm, làm khổ VN. Nhưng thằng lịch sử cũng không làm được vậy, nếu không có một quỉ sứ tay sai đắc lực của nó mang tên Ên Trô Pỳ. Nghe có vẻ như tên Tàu, nhưng thực ra đây là tên Tây. Thằng quỉ sứ này luôn làm những việc phá phách, nhưng nó ẩn danh cho đến tận năm 1865 mới bị một lão người Đức tên là Clausius phát giác ra, và gọi nó là thằng Entropy, có nghĩa là thằng xáo trộn hỗn độn. Theo gốc Hy Lạp, “tropy” (τροπή ), có nghĩa là thay đổi, chuyển hướng, còn “en” có nghĩa là “bên trong”. Khi sang tiếng Việt thì Entropy trở thành Ên Trô Pỳ (chữ trô đọc chờ nặng). Số là, có lần tôi gọi taxi để đi đến Ciputra. Tôi nói Ci-pu-t-ra, anh lái taxi mãi mới hiểu ra là Ci-pu-tra, và chê tôi nhà quê không biết nói tiếng Tây. Từ đó tôi cứ nói Ci-pu-tra, ai cũng hiểu, và entropy thì gọi là Ên Trô Pỳ cho chuẩn.
Ở đâu có lộn xộn, là ở đó có En Trô Pỳ hoành hành. Không chỉ ở những trận đánh nhau chết cả triệu người, mà ngay trong căn nhà nhỏ của bạn, En Trô Pỳ cũng ra tay quấy phá. Bạn có biết vì sao phòng của bạn cứ dọn sạch được 1-2 hôm lại bừa đâu vào đấy không, vì sao hàng xóm hay đồng nghiệp thỉnh thoảng lại cãi nhau chí chóe không ? Chính là tại bởi Ên Trô Pỳ!
Ên Trô Pỳ luồn lách mọi nơi, ảnh hưởng đến mọi vật, một cách cộng tính: Ên Trô Pỳ (độ lộn xộn) của một tổng thể các vật (các “systems”), thì bằng tổng của các Ên Trô Pỳ của các vật. Một đặc điểm nhận biết thằng En Trô Pỳ là, nó là thằng ăn hại năng lượng. Ví dụ, khi xe ô tô đi trên đường phẳng nằm ngang vẫn tốn xăng, chính là vì thằng Entropy ăn mất năng lượng do động cơ chạy xăng tao ra, qua các thứ ma sát. Cụ Newton đã nói năng lượng luôn bảo toàn, không bị mất đi. Thế nhưng, năng lượng dự trữ trong xăng là năng lưỡng hữu ích, có thể dùng để làm việc này việc nọ, còn năng lượng khi đã bị thằng En Trô Py ăn vào, thì trở thành năng lượng vô dụng, ta khó có thể đòi lại để dùng đươc nữa! Tuy nhiên, bản thân Ên Trô Pỳ không phải là năng lượng, nó chỉ là thằng phá phách biến năng lượng hữu dung thành vô dụng trong quá trình béo lên của nó thôi. Lão Clausius cũng biết điều đó; đầu tiên lão định tìm từ gì tương tự như năng lượng để đặt tên cho nó, trước khi nghĩ ra từ Entropy.
Càng nóng càng khó béo lên
Clausius nhận thấy rằng, chỗ nào càng nóng thì entropy càng khó béo lên, tức là càng cần bơm vào nhiều năng lượng (ở dạng nhiệt năng) để nó béo lên. Nói một cách chính xác hơn:
trong đó là độ lớn của entropy (của một hệ nào đó), là sự thay đổi độ lớn của Ên Trô Pỳ, là nhiệt độ (tuyệt đối), còn là độ thay đổi nhiệt năng của hệ đó. Nói cách khác, nếu ta cho thêm một lượng nhiệt năng vào một vật nào đó đang ở nhiệt độ , thì entropy của nó sẽ tăng lên một lượng là . Ngược lại, nếu ta hút đi một lượng nhiệt năng là , thì entropy của vật cũng giảm đi một lượng là .
Công thức trên cũng cho thấy, đơn vị đo của entropy là đơn vị năng lượng chia cho nhiệt độ. Người ta thường viết đơn vị của entropy là , trong đó J là Joule là đơn vị năng lượng dùng để đo nhiệt năng, con K là đơn vị độ Kelvin để đo nhiệt độ.
Theo công thức phía trên, để giảm entropy của một vật, cần rút bớt nhiệt ra. Nhưng nhiệt rút ra đó đi vào chỗ nào ? Theo một định luật vật lý (gọi là định luật nhiệt động học thứ hai), chỗ nhận được nhiệt đó phải lạnh hơn là vật ban đầu nếu ta không muốn tiêu thêm năng lượng vào đó. (Khi Bác Hồ ôm cục gạch nóng, thì là gạch sưởi cho Bác chứ không phải Bác sưởi cho gạch). Chẳng hạn chỗ đó có nhiệt độ . Khi đó phần được truyền nhiệt sang sẽ có entropy tăng lên một lượng bằng
trong đó là lượng nhiệt chuyển từ vật nóng sang vật lạnh. Vật nóng thì có entropy giảm đi một lượng bằng . Công lại ta có
(vì và ). Có nghĩa là entropy của tổng hai vật tăng lên! Đây chính là định luật:
Ên Trô Pỳ làm gì cũng đúng
Theo định luật này, thì entropy của thế giới không thể giảm đi, mà chỉ có thể tăng lên theo thời gian. Nếu entropy ở chỗ nào đó giảm đi, thì ở các chỗ xung quanh sẽ phải tăng lên một lượng nhiều hơn lượng giảm đi đó để bù lại, và tính tổng cộng thì vẫn là tăng lên. Định luật Ên Trô Pỳ làm gì cũng đúng chẳng qua là một cách phát biểu khác của định luật nhiệt động học thứ hai.
Chính vì sự tăng lên không ngừng theo thời gian của entropy, nên thời gian không đảo nghịch được, và không thể có các chuyến “du hành vũ trụ” đi ngược lại thời gian được! Giá ta có thể đi về thế kỷ 17 tán phét với cụ Newton một lúc rồi quay lại thế kỷ 21 thì vui biết mấy. Nhưng quỉ sứ entropy không cho ta làm điều đó!
Có thể nói, thằng entropy ngày càng béo ra bằng cách ăn vào năng lượng hữu ích biến thành năng lượng vô ích để rồi làm loạn thế giới, nhưng ta không có cách nào “chọc mỡ” nó cả!
Nếu đến một lúc nào đó, thằng En Trô Pỳ ăn hết năng lượng của thế giới này thì sao? Lúc đó thì nó đạt đến mức béo nhất có thể (gọi là maximal entropy). Nhưng lúc đó cũng sẽ không còn năng lượng có thể sử dụng được nữa, và đó sẽ là ngày tận thế của thế giới. Mấy ông hủ lý thì gọi đó là ngày của cái chết nhiệt (heat death hay thermal death). Nhưng ngày đó nếu có xảy ra, cũng còn phải hàng ty tỷ năm nữa, ta chưa vội gì mà phải “mặt ủ mày chau”!
Một mình chống lại Ên Trô Pỳ
Tuy Ên Trô Pỳ làm gì cũng đúng, nhưng thỉnh thoảng vẫn có các anh hùng hảo hớn dám ra đương đầu với nó. Một trong các anh hùng hảo hớn đó là thần đồng Ludwig Boltzmann (1844-1906), một nhà toán học mà khi 25 tuổi đã là giáo sư (full professor) ở nước Áo. Từ những năm 1870, Boltzmann đã tìm cách vạch mặt bản chất chân tướng của thằng Ên Trô Pỳ bằng cơ học thống kê, và đi đến công thức sau:
trong đó là một hằng số (gọi là hằng số Boltzmann), còn là số trạng thái vi mô (microstate) khác nhau mà nhìn vào hệ ta không phân biệt được (tức là cho cùng một trạng thái vĩ mô của vật). Trong suốt hơn 30 năm từ khi Boltzmann nghĩ ra công thức trên, thì bị thằng Ên Trô Pỳ trả thù bằng cách xúi giục các nhà khoa học lớn khác (như Planck, Poincaré) chế diễu công thức này, coi nó lẩm cẩm, khiến cho Boltmann uất chí đến mức tự tử ở Duino (Italia) vào năm 1906.
Ngày nay các nhà hủ lý đều chấp nhận công thức trên của Boltzmann, và trên bia mộ của ông ta có khắc nó.
Theo công thức Boltzmann, thì càng nhiều khả năng (nhiều microstate có thể) càng lắm hỗn loạn (entropy càng cao). Khi ta ghép 2 hệ với nhau, thì số khả năng của tổng bằng tích của các số khả năng, trong khi entropy của tổng chỉ là tổng của các entropy. Bởi vậy để chuyển từ số khả năng sang entropy phải lấy log.
Làm sao để tính entropy ?
Đây có vẻ là vấn đề rất khó khăn. Đối với các vật đơn giản, ví dụ nhưng một lượng nguyên chất của một loại phân tử nào đó, thì có thể dùng công thức của Clausius để mà tính: Khi nhiệt độ bằng 0K (= – 273 độ C), thì các phân tử cũng đứng im không có thể nhúc nhích gì hết, bởi vậy coi như là “có trật tự”, và entropy của nguyên chất khi nhiệt độ bằng 0 (độ Kelvin) được coi là bằng 0. (Đây là định luật thứ 3 của nhiệt động học). Từ mức nhiệt độ sát 0, ta nhồi nhiệt năng từng ít một vào vào để nhiệt độ tăng lên dần đến mức ta muốn, và trong quá trình nhồi đó đo nhiệt độ, rồi lấy các lượng nhiệt năng cho vào chia cho nhiệt độ để ra các độ tăng của entropy, rồi cộng chúng lại với nhau. (Nói một cách toán học hơn, thì là lấy tích phân của dạng vi phân ). Ví dụ, người ta tính ra được rằng 1kg nước (H2O) ở nhiệt độ 25 độ C có entropy bằng 367 J/K [edit: đây là con số tương đối tính từ 1 mốc nào đó, còn con số tuyệt đối, theo GS Đàm Thanh Sơn, là những 3890 J/K]. Tất nhiên, đây chỉ là một trong các cách tính, và các hủ lý có thể còn sáng tạo ra nhiều cách khác. (Xem chẳng hạn: R.K. Rajput, A textbook of engineering thermodynamics).
Tại sao tủ lạnh lại lạnh ?
Bình thường, theo định luật thứ hai của nhiệt học, nhiệt phải truyền từ chỗ nóng sang chỗ lạnh (và trong quá trình truyền nhiệt đó thì entropy tăng lên). Thế nhưng tủ lạnh mà máy điều hòa nhiệt độ có vẻ làm ngược lại: tủ lạnh hút nhiệt bên trong tủ thổi ra ngoài, làm bên trong thì lạnh đi, còn bên ngoài nóng lên. Có sự mâu thuẫn nào ở đây không ? Tất nhiên là không, vì thằng Ên Trô Pỳ làm gì cũng đúng, đời nào chịu thua thiệt. Nó chỉ cho phép tủ lạnh hay máy điều hòa làm lạnh với điều kiện là phải xì cho nó năng lượng: khi máy điều hòa làm giảm nhiệt năng trong phòng, thì làm tăng nhiệt năng ngoài trời một lượng nhiều hơn là lượng giảm đi trong phòng, và độ chênh lệch giữa hai lượng chính là lượng điện năng mà máy tiêu thụ. Nhiệt độ ngoài trời mà càng cao hơn bên trong nhà, thì càng phải cúng nhiều điện năng cho thằng Ên Trô Py nó mới cho phép thổi nhiệt ngược từ chỗ lạnh trong nhà ra chỗ nóng ngoài trời ! Điện có thể được dùng để hút nhiệt qua hiệu ứng Peltier, hoặc qua cách nén khí bằng compressor rồi sử dụng hiệu hứng thay đổi áp suất dẫn đến thay đổi nhiệt sau đó, hoặc là các cách khác, nhưng kiểu gì thì cũng phải nộp cống cho thằng Ên Trô Pỳ.
Những kẻ “ăn theo”
Như người ta thường nói “không chống được chúng, thì hãy theo chúng”. Có những kẻ đã khôn ngoan đi ăn theo, mượn vía Ên Trô Pỳ. Đầu tiên có thể kể đến Claude Shannon (1916-2001), cha đẻ của lý thuyết thông tin. Khi Shannon nghĩ ra công thức đo lượng thông tin (hay là lượng thông tin bị mất mát đi khi truyền tin) vào quãng những năm 1944-1948, định gọi nó là “độ bất xác định”, nhưng John von Neumann đã khuyên nên đặt tên nó là entropy, với hai lý do: một là công thức của Shannon trông giống y chang công thức entropy trong vật lý thống kê (như kiểu công thức của Boltzmann), và hai là “không ai thực sự biết entropy là gì, nên cậu gọi như vậy thì sẽ lợi thế khi tranh luận!”.
Nếu không gian xác suất chia làm n tập con với các xác suất tương ứng (), thì entropy của phép chia này bằng
Hiểu công thức trên như thế nào ? Để cho đơn giản, hình dung là chia đều thành 8 phần, mỗi phần xác suất 1/8, khi đó entropy bằng 3. Số 3 ở đây hiểu là “3 bit thông tin”: Xét 8 số nhị phân có 3 chữ số: 000, 001, 010, 011, 100, 101, 110, 111. Giả sử cần lấy ra 1 số trong 8 số đó. Để biết là cần lấy ra số nào, thì cần có 3 bit thông tin: chữ số đầu là gì, 0 hay 1, là 1 bit thông tin, chữ số thứ 2 cũng ứng với 1 bit, và chữ số thứ 3 cũng 1 bit.
Sau khi Shannon “ăn theo” thì tiếp ngay đến Kolmogorov, với định nghĩa “metric entropy” cho các hệ động lực, vào đầu những năm 1950. Tiếp theo đó là một loạt các nhà toán học khác như Sinai, Adler, Dinaburg, Bowen, … nghiên cứu metric entropy rồi topological entropy cho các hệ động lực, rồi tiếp đến Ghys, Walczak, Langevin xét entropy hình học cho các phân thới, v.v. Đấy mới chỉ là tụi “làm toán ăn theo” không kể các hội vật lý, tin học, v.v. khác ăn theo entropy.
Kẻ thừa giấy vẽ con voi này cũng đang đi ăn theo với “entropy của các cấu trúc hình học”, mà trường hợp riêng là các đa tạp Poisson, hay các singular distributions nào đó. Việc nó liên quan đến quỉ sử Ên Trô Pỳ (trong tự nhiên) thế nào thì chưa hề rõ.
Trong kinh tế, những kẻ ăn theo cũng đưa vào khái niệm corporate entropy, để chỉ sự rắm rối của các doanh nghiệp dẫn đến giảm hiệu quả lao động.
Entropy của thức ăn
Một lần kẻ thừa giấy vẽ voi này có được hầu chuyện Alain Connes trong một bữa đánh chén. Câu chuyện huyên thuyên một lúc không hiểu sao lại nhảy sang entropy. Connes say sưa với lý thuyết entropy về thức ăn của mình: thức ăn vào bụng thì kiểu gì cũng sẽ phải đạt mức entropy nào đó. Hãy để cho dạ dày và ruột của ta làm việc đó (tăng entropy của thức ăn lên, là một cách làm giảm entropy của bản thân chúng ta, giúp ta khỏe lên). Đừng ăn thức ăn có entropy cao sẵn (khi đó cơ thể người còn ít việc để làm, không làm giảm entropy của người đi được). Hẵy học tập người Nhật: đồ ăn của họ thường ở dạng entropy thấp (ví dụ như ăn cá sống). Đừng có ăn nhiều đồ đã băm nát trộn lẫn xào xáo nhiều … Cũng có thể đồ ăn có entropy thấp là một trong các bí quyết sống lâu của người Nhật thật.
Entropy âm ?
Trong lúc Connes kể chuyện về entropy của thức ăn, thì kẻ này có liều mình hỏi một câu provocative: thế entropy có âm được không ? Connes liền kể chuyện Boltzmann bị người đời không hiểu dẫn đến chán đời tự tử ra sao.
Tất nhiên theo các công thức của Boltzmann hay Shannon hay này nọ, thì entropy không thể âm. Thế nhưng câu hỏi “triết học” vì sao entropy lại phải dương không hẳn là câu hỏi dở hơi, đặc biệt khi ta coi mọi thứ chỉ là tương đối. Năng lượng có thể âm thoải mái không sao, vì nếu lấy hàm năng lượng trừ đi một hằng số, thì không hề ảnh hưởng đến phương trình chuyển động. (Hay như Dirac nghĩ ra các phản hạt xả láng, âm có làm sao đâu ?!) Entropy cũng vậy, nếu trừ đi một hằng số thì có lẽ chẳng ảnh hưởng gì hết đến các lý thuyết, vì cái người ta đo thực ra là độ thay đổi entropy, chứ không phải entropy tuyệt đối.
Kẻ vẽ voi này đi tìm hiều về “entropy âm”, thì phát hiện ra có khái niệm đó thật! Chính Schroedinger đưa ra khái niệm “negative entropy”, hay còn gọi là negentropy, trong quyển sách What is life. Thực ra thì cũng không có gì dám “báng bổ” quỉ sử Ên Trô Pỳ về bản chất. Có thể coi entropy + negentropy là hằng số, tức là negentropy là phần “dư ra” chưa bị entropy chén mất, và phần này ứng với phần năng lượng còn dùng được. Sự sống có được là nhờ có negentropy.
Entropy của các cấu trúc tổ chức xã hội ?
Một câu hỏi thú vị đặt ra với các nhà xã hội học: các mô hình, cơ chế xã hội nào tạo entropy cao nhất, làm tăng entropy nhanh nhất ?
Câu hỏi này rất khó, kẻ vẽ voi không dám vẽ bậy ở đây. Nhưng trộm nghĩ rằng các cơ chế “cào bằng”, “xin cho”, tham nhũng v.v. ắt hẳn dẫn đến entropy cao ?!
No comments:
Post a Comment