不可能的完美的混乱

来源:百度文库 编辑:神马文学网 时间:2024/04/29 15:27:23
預測的不可測
知識新知 06/01/2005
科學的一個主要目標是作預測。傳統的辦法是寫下主導所研究系統的方程式,然後再尋求解答。如果這個辦法行不通,就必須用上隨機數辦法來作預測。
運用隨機數進行統計模型預測的方法目前廣泛應用在經濟、醫藥、交通、生化、物理等多種不同領域,而取得隨機數樣本的多寡與隨機性,影響了模型預測的能力。拜電腦之賜,現在的科學家得以不必費心地抽籤、丟銅板,就能取得為數極多的隨機數,但他們有了另一項苦惱:電腦其實無法產生真正隨機的隨機數。
運用隨機數的模擬方法,最早可追溯到十八世紀的布封伯爵(George Louis Leclerc, Comte de Buffon),他在一個畫滿了平行線的板子上重複投針,得出針與平行線相交的機率公式。這個實驗也讓數學家拉普拉斯(Pierre Simon de Laplace)發現一種運用統計估計圓周率的方法。
隨著機械計算機的發展,計算的實驗也得以進行,譬如一九0一年克爾文伯爵(William Thomson, Lord Kelvin)所證明的氣體內部能量的均分原理。而一九三0年代費米(Enorico Fermi)的中子散射研究,使他成為可能是運用統計抽樣方法解答研究問題的第一人。運用費米的方法,烏楞(Stanislaw Ulam)、馮諾曼(John von Neumann)、梅卓波里(Nicholas Metropolis)在他們的曼哈頓計畫研究中,把隨機數的運用提昇為正式的研究方法,以賭城為命名根據,建立了蒙地卡羅法則。
一旦無法運用解方程式的傳統方法求得一個系統的短暫演進變化,隨機數就派上了用場。研究人員會先從一個可能性較高的模型開始,導入微小、隨機的變化,來得到一個新的配置,如果這個配置比先前的配置穩定,那麼這個新的配置就會取代舊的配置,重複這樣的實驗,直到找出最穩定的配置為止。
隨機數不會直接告訴人哪樣的配置比較好,但可以讓研究人員在沒有任何偏見的蒙蔽下,探索每一種可能的配置,來找出最好的一種,也就是解決一項問題的最佳方案。而如果能夠猜到一個模型可能的分佈情形,就可以繞過標準的隨機抽樣,只針對最可能出現解答的部份做重點抽樣即可。
與最佳化有關的問題,經常利用的是模擬生物演化的隨機規則。在自然界,隨著母體基因的任意結合,基因庫內的隨機變化或突變,會產生新的基因變體。這種隨機性使得生物體得以不斷嘗試新的基因組合,天擇的結果只有適者得以存活下來。環境改變是個持續的過程,因此生物演化的隨機作用並非試圖製造出最完美的基因組合,而比較是在一個生態系統中,與眾多生物體維持一種動態平衡的過程。
取得隨機樣本的方法,早期是透過丟銅板、抽籤等方式,電腦出現後,能夠更容易地取得大量的隨機數樣本。但問題是,電腦無法產生真正的隨機數。早在一九六0年代,柴丁(Gregory Chaitin)與柯默哥洛夫(Andrei Nikolaevich Kolmogorov)就首先指出,一個任意的序列在運算上必須是無法壓縮的,也就是說,它無法以一個比序列本身更短的方式來描述。但電腦產生的隨機數卻可以用產生隨機數的運算規則來描述,雖然電腦產生的假隨機數看起來就像真正的隨機數,但這些序列的關聯最後都會顯露出來,形成重複的模式。
為了避免這個問題,科學家轉而研究能夠有效率地產生隨機數的物理裝置,譬如藉雜訊無線電接收器來偵測大氣的隨機變化、放射性衰變的計時、與半透明鏡子的光子發射。理論上,在自然界接收到的任意數會比電腦產生的更具任意性,但實際上,電腦產生的假隨機數看起來卻比這些硬體隨機數產生器更隨機。
就好像丟銅板的結果,雖然看起來似乎是隨機的,但實際上會受到銅板兩面質量分佈不均的輕微影響,要利用本身極為平衡的物理程序來製造隨機數其實並不容易。即使在設計上盡量降低誤差,仍需要一套矯正的運算程式來處理殘差相關,並進行統計學的測試來偵測可能的錯誤。而這個矯正的工作只有電腦可以執行。雖然這聽起來有點諷刺,要檢查隨機數是否真得隨機,必須依賴無法產生真隨機數而為人詬病的電腦。
換句話說,要有效得到更可靠的隨機數,隨機數產生硬體與電腦軟體必須緊密合作,缺一不可。但這仍不是件容易的事,追求絕對的隨機與混亂,就跟追求完美的平衡與秩序一樣困難。
~知識通訊評論半月刊013 2005.06.01
_xyz