这篇文章提出了NeuRewriter的方法,使用强化学习中 actor-critic 的方式训练。

感觉类似于 “A Monte Carlo Policy Gradient Method with Local Search for Binary Optimization” 中的操作。当然了,NeuRewriter是最先提出来的,时间跨度基本都有4年了。

Reference: * Learning to Perform Local Rewriting for Combinatorial Optimization * github地址

阅读全文 »

The application of deep reinforcement learning to combinatorial optimization methods.

Reference: - Machine Learning for Combinatorial Optimization: a Methodological Tour d’Horizon

Link:
- Learning to Perform Local Rewriting for Combinatorial Optimization
- graph networks
- pointer networks
- Neural Combiantorial Optimization with Reinforcement Learning

阅读全文 »

考虑到状态的演化,最直接的想法是通过经典力学通过拉格朗日量来构建经典的运动路径。如何处理的问题不是精确的状态,而是概率密度的分布,如何求概率密度分布的演化?路径积分则是十分自然的想法。将每一个小的状态,以任意的路径进行演化,最后得到最终转态的概率分布。这样处理的麻烦在于,不是每一条路径都是等价的,有一些路径发生的概率高一些,另一些则低一些。如何表示这样的概率分布,以及实际得到演化后的概率分布,则是本文要探讨的。

当然,这只是一个简单的版本,需要更多的讨论。

参考: * QM - 路径积分 (Path Integral) PT. 1 - 基本构架 * QM - 路径积分 (Path Integral) PT. 2 - 求解实例

阅读全文 »

文献地址: * KAN: Kolmogorov–Arnold Networks * GitHub地址

传统的全连接神经网络用于拟合非线性函数,然而全连接网络真的是最好的架构了么?对于全连接网络有明显的缺点,显存开销大,可解释性差。

本文作者提出了KAN网络架构,其基于 Kolmogorov-Arnold representation theorem。该网络架构将“参数进行非线性激活”,然后通过全连接。

Multi-Layer Perceptrons (MLPs) vs. Kolmogorov-Arnold Networks (KANs)
阅读全文 »

占位内容:整理《Machine Learning with Graphs》的读书笔记与要点摘录,稍后补充。

展示利用机器学习提升的MC在一些模型中的失败: * 为什么说失败?哪些指标说明失败? * 在怎样的模型中?这种模型具有什么样的特点? * 实验条件是什么?

参考文献: * Machine-learning-assisted Monte Carlo fails at sampling computationally hard problems 配套代码10.5281/zenodo.7567683 * Neural Annealing and Visualization of Autoregressive Neural Networks in the Newman–Moore Model * Glassy dynamics and aging in an exactly solvable spin model * Boundary conditions dependence of the phase transition in the quantum Newman-Moore mode * Visualizing the Loss Landscape of Neural Nets

阅读全文 »

本文为蒙特卡洛树搜索综述节选。

蒙特卡洛树搜索(Monte Carlo Tree Search,简称MCTS)是一种用于决策过程的模拟和搜索算法,特别适用于解决复杂的顺序决策问题。以下是MCTS的几个核心步骤:

  1. 选择(Selection):从根节点开始,根据某种策略(如UCB1公式),选择一条路径直到达到一个未扩展的节点。
  2. 拓展(Expansion):在当前选中的节点上添加一个新的子节点。
  3. 模拟(Simulation):从新扩展的节点开始进行随机模拟(即走子),直到游戏结束,并记录结果。
  4. 反向传播(Backpropagation):将模拟的结果回传,更新沿途节点的统计信息。

值得一提的是,MCTS通过不断重复上述过程,逐渐构建出一个代表不同行动及其结果概率的搜索树。最终,算法会选择具有最高胜率的行动作为推荐的行动。

此外,MCTS与传统的博弈树搜索相比,它不需要构建整个博弈树,而是通过模拟来评估局面,这使得它能够处理更大规模的搜索空间。然而,MCTS也存在一些局限性,比如对于非零和游戏的适应性、在面对随机性或不完全信息时的表现等问题。尽管如此,MCTS仍然是现代人工智能领域的一个重要工具,尤其是在棋类游戏中的应用,如AlphaGo/Zero等著名程序就是基于MCTS的变体。

阅读全文 »

为许多NP-complete和NP-hard问题提供了Ising形式,包括Karp的21个NP完全问题中的所有问题。这收集并扩展了从分区、覆盖和可满足性到Ising模型的映射。在每种情况下,所需的自旋数最多是问题大小的三次方。这项工作可能对设计绝热量子优化算法有用。别的优化算法同样有用。

文献: * 本文Ising formulations of many NP problems * On the computational complexity of Ising spin glass models * E. Boros and P.L. Hammer. “Pseudo-Boolean optimization”, Discrete Applied Mathematics 123 155 (2002). * Reducibility among Combinatorial Problems * M. Me ́zard and A. Montanari. Information, Physics and Computation (2009) * Y. Fu and P.W. Anderson. “Application of statistical mechanics to NP-complete problems in combinatorial optimisation”, Journal of Physics A19 1605 (1986).

阅读全文 »

参考文章在带有数学公式的markdown文档里的交叉引用实现。

这篇文章作为案例,实现公式的交叉引用。

更多阅读: * 在带有数学公式的markdown文档里的交叉引用 * $\LaTeX$在MathJax中的命令 * MathJax 与 Katex 在公式对齐、编号、交叉引用方面的不同 * Markdown杂记

阅读全文 »