來源:集智俱樂部
作者:Alex Davies, Petar Veličković, Lars Buesing等
譯者:趙雨亭
審校:潘佳棟
編輯:鄧一雪
導語論文題目:
Advancing mathematics by guiding human intuition with AI
論文鍊接: https://www.nature.com/articles/s41586-021-04086-x1. 摘要
2.引入
3. 使用AI引導數學直覺
圖1. 框架流程圖。通過訓練機器學習模型來估計特定數據P(Z)分布上的函數,該過程有助于引導數學家對猜想的函數f的直覺。來自學習函數
的準确性的見解和應用于它的歸因技術,可以幫助理解問題和構建封閉形式的 f′。該過程是叠代和交互的,而不是一系列的順序執行的步驟。 具體而言,它可以幫助數學家獲得直覺,了解由 z 聯系起來的兩個數學對象 X(z) 和Y(z) 之間的關系,該過程通過找到滿足 的學習函數 ,并分析它以了解這種關系的性質。舉個例子:設 z 是凸多面體, 是 z 的頂點和邊的數量,以及體積和表面積,Y(z)∈ℤ 是 z 的面。歐拉公式表明,在這種情況下,X(z)和Y(z)之間存在精确的關系:X(z)·(−1, 1, 0, 0)+2=Y(z)。* 在這個簡單的例子中,使用許多其他方法,都可以通過數據驅動猜想生成的傳統方法重新發現這種關系[1]。然而,對于高維空間中的X(z)和Y(z),或更複雜的數據,例如圖,以及更複雜的非線性的 ,這種方法要麼不太管用,要麼完全不可行。 *注:例如,我們常見的歐拉公式形式為F-E+V=2,即 -V+E+2=F,V、E、F分别表示頂點、邊、面的數量。4. 拓撲學:
紐結理論中代數與幾何不變量的關系
圖2. 三個雙曲紐結的不變量示例。我們假設幾何和代數不變量之間存在先前未發現的關系。
我們的假設是,紐結的雙曲不變量和代數不變量之間存在一種未被發現的關系。監督學習模型能夠檢測,很多幾何不變量和符号差σ(K) (signature) 之間存在一種模式,這裡的符号差可編碼關于紐結K的重要信息,但之前人們并不知道它與雙曲幾何有關。如圖3a所示,歸因技術确定的最相關的特征是尖形幾何 (cusp geometry) 的三個不變量,圖3b中部分地顯示了這種關系。使用僅由這些測量值組成的X(z)訓練第二個模型實現了非常相似的準确度,這表明它們是一組足夠的特征,可以捕獲幾何不變量對符号差的幾乎所有影響。這三個不變量是橫向平移μ和縱向平移λ的實部和虛部。這些量與符号差之間存在非線性的多元關系。在被引導關注這些不變量後,我們發現,通過使用一個與符号差線性相關的新數學量,可以更好地理解這種關系。圖3. 扭結理論歸因。a. 每個輸入X(z)的屬性值。具有高值的特征是那些學習函數最敏感的特征,并且可能與進一步探索相關。95% 置信區間誤差線跨越模型的 10 次重新訓練。b. 相關特征的示例可視化——經向平移相對于符号差的實部,由縱向平移着色。
我們引入了“自然斜率” (natural slope) ,定義為 slope(K)=Re(λ/μ),其中Re表示實部。它有以下幾何解釋:可以将經線實現為歐幾裡得環面上的測地線γ。如果給出正交的測地線γ⊥,它最終會返回并與γ 交于某點。這樣做時,它将沿着經度減去緯度的倍數行進,這個倍數就是自然斜率。它不必是整數,因為 γ⊥的端點可能與其起點不同。我們最初關于自然斜率和特征的猜想如下。 猜想: 存在常數c1和c2,使得對于每個雙曲扭結K,5. 表示論:對稱群組合不變性猜想
圖4. 兩個示例數據集元素,一個來自S5,一個來自S6。組合不變性猜想指出,一對置換的KL多項式應該可以從它們未标記的Bruhat區間計算出來,但是此前人們并不知道計算的函數。
注:Bruhat 區間是一種圖,表示一次隻交換兩個對象,讓集合中的對象逆轉順序的所有不同方式。KL多項式告訴數學家關于這個圖在高維空間中存在的不同方式的一些深刻而微妙的性質。隻有當 Bruhat 區間有100或1000個頂點時,才會出現有趣的結構。圖 5. 表示論歸因。a. 在預測q4時,與數據集中跨區間的平均值相比,顯著子圖中存在的反射增加百分比的示例熱圖。b. 與來自數據集的10個相同大小的自舉樣本相比,模型的10次再訓練在顯著子圖中觀察到的每種類型的邊緣的百分比。誤差線是95%的置信區間,顯示的顯著性水平是使用雙側雙樣本t檢驗确定的。*p < 0.05;****p < 0.0001。c,通過假設、監督學習和歸因的叠代過程發現的有趣子結構的區間021435–240513∈S6的說明。受先前工作[31]啟發的子圖以紅色突出顯示,超立方體以綠色突出顯示,分解成分與SN-1中的區間同構以藍色突出顯示。
這兩種結構的重要性,如圖5c所示,證明了KL多項式可以通過補充信息中總結的漂亮公式直接從超立方體和SN-1成分中計算。數學結果的進一步詳細處理在參考文獻[32]中給出。 定理: 每個Bruhat區間都允許沿其極值反射進行典型超立方體分解,從中可以直接計算KL多項式。 值得注意的是,進一步的測試表明所有的超立方體分解都正确地确定了KL多項式。對于直到S7的對稱群中的所有大約3×106個區間和從對稱群S8和S9采樣的超過1.3×105的非同構區間,都可以進行計算驗證。 猜想: 無标記的Bruhat區間的KL多項式可以用前面的公式計算出任何超立方體分解來得到。 這個猜想的解決方案,如果被證明是正确的,将解決對稱群的組合不變性猜想。這是一個很有前景的方向,因為該猜想不僅在相當多的例子中得到了經驗驗證,而且還有一個特别好的形式,可以提出攻破該猜想的潛在途徑。這個案例展示了如何從訓練的模型中獲得關于大型數學對象行為的非微觀見解,從而發現新的結構。6. 結論
參考文獻
1. Borwein, J. & Bailey, D. Mathematics by Experiment (CRC, 2008). 2. Birch, B. J. & Swinnerton-Dyer, H. P. F. Notes on elliptic curves. II. J. Reine Angew. Math.1965, 79–108 (1965). 3. Carlson, J. et al. The Millennium Prize Problems (American Mathematical Soc., 2006). 4. Brenti, F. Kazhdan-Lusztig polynomials: history, problems, and combinatorial invariance. Sémin. Lothar. Combin. 49, B49b (2002). 5. Hoche, R. Nicomachi Geraseni Pythagorei Introductions Arithmeticae Libri 2 (In aedibus BG Teubneri, 1866). 6. Khovanov, M. Patterns in knot cohomology, I. Exp. Math. 12, 365–374 (2003). 7. Appel, K. I. & Haken, W. Every Planar Map Is Four Colorable Vol. 98 (American Mathematical Soc., 1989). 8. Scholze, P. Half a year of the Liquid Tensor Experiment: amazing developments Xena https://xenaproject.wordpress.com/2021/06/05/half-a-year-of- the-liquid-tensor- experiment-amazing-developments/ (2021). 9. Fajtlowicz, S. in Annals of Discrete Mathematics Vol. 38 113–118 (Elsevier, 1988). 10. Larson, C. E. in DIMACS Series in Discrete Mathematics and Theoretical Computer Science Vol. 69 (eds Fajtlowicz, S. et al.) 297–318 (AMS & DIMACS, 2005). 11. Raayoni, G. et al. Generating conjectures on fundamental constants with the Ramanujan machine. Nature 590, 67–73 (2021). 12. MacKay, D. J. C. Information Theory, Inference and Learning Algorithms (Cambridge Univ. Press, 2003). 13. Bishop, C. M. Pattern Recognition and Machine Learning (Springer, 2006). 14. LeCun, Y., Bengio, Y. & Hinton, G. Deep learning. Nature 521, 436–444 (2015). 15. Raghu, M. & Schmidt, E. A survey of deep learning for scientific discovery. Preprint athttps://arxiv.org/abs/2003.11755(2020). 16. Wagner, A. Z. Constructions in combinatorics via neural networks. Preprint athttps://arxiv.org/abs/2104.14516(2021). 17. Peifer, D., Stillman, M. & Halpern-Leistner, D. Learning selection strategies in Buchberger’s algorithm. Preprint athttps://arxiv.org/abs/2005.01917 (2020). 18. Lample, G. & Charton, F. Deep learning for symbolic mathematics. Preprint athttps://arxiv.org/abs/1912.01412(2019). 19. He, Y.-H. Machine-learning mathematical structures. Preprint athttps://arxiv.org/abs/2101.06317(2021). 20. Carifio, J., Halverson, J., Krioukov, D. & Nelson, B. D. Machine learning in the string landscape. J. High Energy Phys. 2017, 157 (2017). 21. Heal, K., Kulkarni, A. & Sertöz, E. C. Deep learning Gauss-Manin connections. Preprint athttps://arxiv.org/abs/2007.13786(2020). 22. Hughes, M. C. A neural network approach to predicting and computing knot invariants. Preprint athttps://arxiv.org/abs/1610.05744(2016). 23. Levitt, J. S. F., Hajij, M. & Sazdanovic, R. Big data approaches to knot theory: understanding the structure of the Jones polynomial. Preprint at https://arxiv.org/abs/1912.10086(2019). 24. Jejjala, V., Kar, A. & Parrikar, O. Deep learning the hyperbolic volume of a knot. Phys. Lett. B 799, 135033 (2019). 25. Tao, T. There’s more to mathematics than rigour and proofs Bloghttps://terrytao.wordpress.com/career-advice/theres-more-to-mathematics-than- rigour-and-proofs/ (2016). 26. Kashaev, R. M. The hyperbolic volume of knots from the quantum dilogarithm. Lett. Math. Phys. 39, 269–275 (1997). 27. Davies, A., Lackenby, M., Juhasz, A. & Tomašev, N. The signature and cusp geometry of hyperbolic knots. Preprint at arxiv.org (in the press). 28. Curtis, C. W. & Reiner, I. Representation Theory of Finite Groups and Associative Algebras Vol. 356 (American Mathematical Soc., 1966). 29. Brenti, F., Caselli, F. & Marietti, M. Special matchings and Kazhdan–Lusztig polynomials. Adv. Math. 202, 555–601 (2006). 30. Verma, D.-N. Structure of certain induced representations of complex semisimple Lie algebras. Bull. Am. Math. Soc. 74 , 160–166 (1968). 31. Braden, T. & MacPherson, R. From moment graphs to intersection cohomology. Math. Ann. 321, 533–551 (2001). 32. Blundell, C., Buesing, L., Davies, A., Veličković, P. & Williamson, G. Towards combinatorial invariance for Kazhdan-Lusztig polynomials. Preprint at arxiv.org (in the press). 33. Silver, D. et al. Mastering the game of Go with deep neural networks and tree search. Nature 529, 484–489 (2016). 34. Kanigel, R. The Man Who Knew Infinity: a Life of the Genius Ramanujan (Simon and Schuster, 2016). 35. Poincaré, H. The Value of Science: Essential Writings of Henri Poincaré (Modern Library, 1907). 36. Hadamard, J. The Mathematician’s Mind (Princeton Univ. Press, 1997). 37. Bronstein, M. M., Bruna, J., Cohen, T. & Veličković, P. Geometric deep learning: grids, groups, graphs, geodesics, and gauges. Preprint athttps://arxiv.org/abs/2104.13478(2021). 38. Efroymson, M. A. in Mathematical Methods for Digital Computers 191–203 (John Wiley, 1960). 39. Xu, K. et al. Show, attend and tell: neural image caption generation with visual attention. In Proc. International Conference on Machine Learning 2048–2057 (PMLR, 2015). 40. Sundararajan, M., Taly, A. & Yan, Q. Axiomatic attribution for deep networks. In Proc. International Conference on Machine Learning 3319–3328 (PMLR, 2017). 41. Bradbury, J. et al. JAX: composable transformations of Python+NumPy programs (2018);https://github.com/google/jax 42. Martín A. B. A. D. I. et al. TensorFlow: large-scale machine learning on heterogeneous systems (2015);https://doi.org/10.5281/zenodo.4724125. 43. Paszke, A. et al. in Advances in Neural Information Processing Systems 32 (eds Wallach, H. et al.) 8024–8035 (Curran Associates, 2019). 44. Thurston, W. P. Three dimensional manifolds, Kleinian groups and hyperbolic geometry. Bull. Am. Math. Soc 6, 357–381 (1982). 45. Culler, M., Dunfield, N. M., Goerner, M. & Weeks, J. R. SnapPy, a computer program for studying the geometry and topology of 3-manifolds (2020);http://snappy.computop.org. 46. Burton, B. A. The next 350 million knots. In Proc. 36th International Symposium on Computational Geometry (SoCG 2020) (Schloss Dagstuhl-Leibniz-Zentrum für Informatik, 2020). 47. Warrington, G. S. Equivalence classes for the μ-coefficient of Kazhdan–Lusztig polynomials in Sn. Exp. Math. 20, 457–466 (2011). 48. Gilmer, J., Schoenholz, S. S., Riley, P. F., Vinyals, O. & Dahl, G. E. Neural message passing for quantum chemistry. Preprint athttps://arxiv.org/abs/1704.01212(2017). 49. Veličković, P., Ying, R., Padovano, M., Hadsell, R. & Blundell, C. Neural execution of graph algorithms. Preprint athttps://arxiv.org/abs/1910.10593(2019).(參考文獻可上下滑動查看)
未來智能實驗室的主要工作包括:建立AI智能系統智商評測體系,開展世界人工智能智商評測;開展互聯網(城市)大腦研究計劃,構建互聯網(城市)大腦技術和企業圖譜,為提升企業,行業與城市的智能水平服務。每日推薦範圍未來科技發展趨勢的學習型文章。目前線上平台已收藏上千篇精華前沿科技文章和報告。
有話要說...