超全面讲透一个算法模型,高斯核!!

超全面讲透一个算法模型,高斯核!!哈喽 大家好 今儿和大家把 高斯核 相关的内容和大家聊聊 在讲 高斯核 之前 我们先想象一个最简单的场景 你家门口有好多路人 小白同学要判断 离我家门口最近的几个人 对我有多大影响 直觉上 离我家门口越近的人 对我影响越大 离得越远

大家好,欢迎来到IT知识分享网。

哈喽,大家好~

今儿和大家把「高斯核」相关的内容和大家聊聊~

在讲「高斯核」之前,我们先想象一个最简单的场景:你家门口有好多路人,小白同学要判断“离我家门口最近的几个人”对我有多大影响。直觉上,离我家门口越近的人,对我影响越大;离得越远,影响就越小。这个“影响程度”怎么量化呢?高斯核就是一种“先给出一个漂亮的钟形”,按距离远近给权重(影响力)。

高斯核是什么?

1. 数学公式


2. 钟形曲线

为什么要用高斯核?

平滑/模糊 :在图像处理中,用高斯核可以做到“高斯模糊”,把一张照片细节平滑掉,噪点变少。

加权平均 :在点云或时间序列里,想让“附近点”比“远处点”更重要,就用高斯核加权平均。

核方法 :在机器学习(如支持向量机 SVM)里,高斯核能把原来线性不可分的数据“映射”到一个无限维空间,让你只用内积就能做出强大的分类器。

两个案例

例 1:温度测量平滑

假设小白同学在街上架了十个温度传感器,每个都可能有点误差。

他想得到“某时刻我们这条街的温度趋势”,不想被某个坏掉的传感器拉偏。

做法:把每个传感器温度 按它到街中心的距离 用高斯核加权:


距离街中心近的传感器给大权重,远的给小权重。

这样算出来的 就更平滑、更靠谱。

例 2:图像高斯模糊

小明拍了一张照片,想让背景虚化一点突出前景。

把照片看成一个像素网格:每个像素的新亮度是“周围像素亮度的高斯加权平均”。

距离中心像素近的像素权重高;距离远的权重低,几乎没贡献。

结果就是旁边一点点的像素影响大,远处的细节渐渐模糊掉了。

调整 σ 的效果

σ 很小 :只有非常近的点才会有明显权重,像一把“尖锐的小伞”只罩住中心。在图像里就是极度“局部”的模糊,边缘保留更多细节。

σ 很大 :很多点都有差不多的权重,像一把“巨大的伞”罩住很广区域。在图像里就是大范围“强模糊”,细节都被揉得差不多了。

总的来说, 高斯核 = 一个随着距离呈钟形衰减的“权重函数”

公式: 距 离 ,从图像模糊到平滑数据,再到机器学习的非线性映射,都能看到它的身影。

核心原理&案例

高斯核(Gaussian kernel)是核方法中常用的核函数,属于径向基函数(RBF)的一种,定义如下:


其中:

推导过程(从高斯分布到高斯核)

1:从一维高斯分布开始

高斯分布(正态分布)的概率密度函数为:


去掉归一化项和均值项 ,得到:


2:推广到多维空间

对两个向量 ,考虑它们之间的距离平方:


带入高斯形式:


这就是我们常见的 高斯核函数


完整案例

我们构造一个虚拟二分类数据集,并使用高斯核对其进行特征映射 + 分析 + 可视化。

包括:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_circles
from sklearn.svm import SVC
from sklearn.decomposition import PCA
from sklearn.metrics.pairwise import rbf_kernel
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report, confusion_matrix

# 1. 非线性数据
X, y = make_circles(n_samples=1000, noise=0.1, factor=0.4, random_state=42)
colors = np.array(['#E74C3C''#3498DB'])  # 红/蓝

# 2. 可视化原始数据
plt.figure(figsize=(6,5))
plt.title("原始非线性分布数据", fontsize=14)
plt.scatter(X[:,0], X[:,1], c=colors[y], edgecolor='k', s=50)
plt.xlabel("X1")
plt.ylabel("X2")
plt.grid(True)
plt.show()

# 3. 计算高斯核相似度矩阵
sigma = 0.3
K = rbf_kernel(X, X, gamma=1/(2*sigma2))

# 4. 可视化相似度矩阵(热图)
plt.figure(figsize=(6,5))
plt.title("高斯核相似度矩阵热图", fontsize=14)
plt.imshow(K, cmap='viridis')
plt.colorbar(label='相似度')
plt.xlabel("样本")
plt.ylabel("样本")
plt.show()

# 5. PCA 对高维相似度空间进行降维(展示映射后特征)
pca = PCA(n_components=2)
X_pca = pca.fit_transform(K)

plt.figure(figsize=(6,5))
plt.title("PCA降维后的核特征空间", fontsize=14)
plt.scatter(X_pca[:,0], X_pca[:,1], c=colors[y], edgecolor='k', s=50)
plt.xlabel("主成分1")
plt.ylabel("主成分2")
plt.grid(True)
plt.show()

# 6. 使用 SVM + RBF 核进行分类
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
model = SVC(kernel='rbf', gamma=1/(2*sigma2), C=1)
model.fit(X_train, y_train)
y_pred = model.predict(X_test)

# 7. 分类边界可视化
xx, yy = np.meshgrid(np.linspace(-1.51.5500), np.linspace(-1.51.5500))
grid = np.c_[xx.ravel(), yy.ravel()]
Z = model.predict(grid).reshape(xx.shape)

plt.figure(figsize=(6,5))
plt.title("SVM + 高斯核分类边界", fontsize=14)
plt.contourf(xx, yy, Z, cmap='coolwarm', alpha=0.6)
plt.scatter(X_test[:, 0], X_test[:, 1], c=colors[y_test], edgecolor='k', s=50)
plt.xlabel("X1")
plt.ylabel("X2")
plt.grid(True)
plt.show()

# 8. 性能指标输出
print("分类报告:")
print(classification_report(y_test, y_pred))
print("混淆矩阵:")
print(confusion_matrix(y_test, y_pred))







































































数据分析可视化:

1. 原始非线性分布数据 :展示问题的非线性本质

超全面讲透一个算法模型,高斯核!!

2. 高斯核相似度热图 :揭示哪些样本“相互接近”(相似度高)

超全面讲透一个算法模型,高斯核!!

3. PCA 降维的核空间图 :可视化高斯核后的隐空间结构(本质变线性)

超全面讲透一个算法模型,高斯核!!

4. SVM 分类边界图 :展示高斯核+SVM 是如何解决非线性分类问题的

超全面讲透一个算法模型,高斯核!!

整个内容,我们用高斯核把原本圈圈状、难分类的数据转化成能分的样子;然后用支持向量机(SVM)来画出清晰的分类边界;最后通过图形和准确率,验证这个方法真的能处理复杂、非线性的问题。

最后

宝子们!快来领取 16大块的内容,124个算法问题 的总结,完整的机器学习小册,免费领取~
超全面讲透一个算法模型,高斯核!!
领取:备注「算法小册」即可~
超全面讲透一个算法模型,高斯核!!
围观朋友圈,满满的干货!~

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/187049.html

(0)
上一篇 2025-08-30 08:45
下一篇 2025-08-30 09:00

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信