1.3. 理论

在介绍DP具体方法之前, 我们先介绍一些定义。首先我们可以对一个包含 个原子的系统定义一个坐标矩阵

表示原子 的三维笛卡尔坐标。为了之后DP理论介绍的方便,我们可以将坐标矩阵 转换成一系列局域坐标矩阵 ,

其中 是原子 在截断半径为下的近邻原子数, 表示原子 的近邻原子编号, 表示的是原子 和原子 之间的相对距离。

在DP方法中, 一个系统的总能量 可以被看作是各个原子的局域能量贡献的总和

其中 是原子 的局域能量. 取决于原子 的局域环境:

的映射可以由两步来构建。第一步,如同 figure 里展示的一样, 要映射到特征矩阵,或者说描述子 ,这里的 保留了体系的平移、旋转和置换不变性。具体来说, 首先被映射到一个扩展矩阵

其中 , , . 是一个权重函数,用来减少离原子 比较远的原子的权重, 定义如下:

其中 是原子 和原子 之间的欧式距离, 是“平滑截断半径”。引入 之后 里的成分会从 平滑地趋于零。 接着 , i.e. 也就是 的第一列, 被一个嵌入神经网络映射到一个嵌入矩阵 . 选取 的前 列,我们就得到了另外一个嵌入矩阵 . 最后,我们就可以得到原子 的描述子

在描述子中, 平移和旋转不变性是由矩阵乘积 来保证的, 置换不变性是由矩阵乘积 来保证的。

第二步, 每一个描述子 都由一个拟合神经网络被映射到一个局域的能量 上面。

嵌入神经网络 和拟合神经网络 都是包含很多隐藏层的前馈神经网络。 前一层的数据 是由一个线性运算和一个非线性的激活函数传递到下一层的数据 .

在公式(8)中, 是权重参数, 是偏置参数, 是一个非线性的激活函数. 需要注意的是在最后一层的输出节点是没有非线性激活函数的。在嵌入网络和拟合网络中的参数由最小化代价函数 得到:

其中 , , 和 分别表示能量、力和维里的方均根误差 (RMSE) . 在训练的过程中, 前置因子 , , 和 由公式

来决定,其中 分别表示在训练步骤 和训练步骤0 时的误差。 的定义为

其中 分别表示的是学习衰减率以及衰减步骤。学习衰减率 要严格小于1。 读者如果想要了解更多细节,可以查看 DeepPot-SE (DP)方法的原始文章DeepPot-SE.