在递推数列研究中,我们经常遇到形如 $a_{n+3} = f(a_n, a_{n+1})$ 的关系。当 $f$ 是线性函数时,简单的线性回归就能解决。但当 $f$ 是非线性函数时,我们需要更强大的工具——神经网络。
$$a_{n+3} = \sin(a_{n+1}) + \ln(|a_n| + 1) + \frac{a_{n+1} \cdot a_n}{a_{n+1}^2 + a_n^2 + 1}$$
这种复杂的非线性组合无法用简单的线性模型 $a_{n+3} = p \cdot a_{n+1} - q \cdot a_n$ 来准确表示。
数学形式: $a_{n+3} = p \cdot a_{n+1} - q \cdot a_n$
局限性: 只能表示输入变量的线性组合,无法捕捉复杂的非线性关系。
数学形式:
$h_1 = \sigma(w_{11}a_n + w_{12}a_{n+1} + b_1)$
$h_2 = \sigma(w_{21}a_n + w_{22}a_{n+1} + b_2)$
$h_3 = \sigma(w_{31}a_n + w_{32}a_{n+1} + b_3)$
$a_{n+3} = v_1 h_1 + v_2 h_2 + v_3 h_3 + c$
其中 $\sigma$ 是非线性激活函数。
神经网络通过在隐藏层使用非线性激活函数(如 tanh, ReLU, sigmoid)来引入非线性变换能力:
根据通用逼近定理,具有单个隐藏层的前馈神经网络,只要使用非线性激活函数且隐藏层足够宽,就可以以任意精度逼近任何连续函数。
对于非线性递推关系 $a_{n+3} = \sin(a_{n+1}) + \ln(|a_n| + 1)$,神经网络会:
线性模型 $f(x,y) = px + qy$ 只能表示一个平面,无法表示复杂的曲面。
神经网络 $f(x,y) = \sum_{i=1}^k v_i \sigma(w_{i1}x + w_{i2}y + b_i)$ 可以表示:
当数据点明显不分布在一个平面上,而是呈现出弯曲、震荡或其他复杂模式时,神经网络能够:
你的线性回归模型是一个特殊形式的神经网络——没有隐藏层的单层感知机。它适合处理线性关系,但在面对复杂的非线性递推关系时,需要引入隐藏层和非线性激活函数来增强模型的表达能力。
神经网络通过组合多个简单非线性函数来构建复杂函数,这种"非线性基函数的线性组合"使其能够处理各种复杂的数学关系,包括那些无法用简单公式表示的模式。