查看:1909|回复:31
gooog
头像
一等兵
  • 一等兵
  • 426
  • 0
  • 678
  • 0
  • @2019-02-09
发表于:2022-08-16 11:37|只看楼主
字体大小:T|T

图形学:矩阵的第二个特征向量为何能用来分类

刚刚开始学习离散学和图像学。有个问题需要请教一下。


假设一个图形中有N个节点,组成一个N*N的相似矩阵(A)。

为什么矩阵A的第二个特征向量能用来分类?


mincut spectral partition


如果有详细的推导材料,请推荐。多谢。

0
Advertisement
redpearl
头像
下士
  • 下士
  • 737
  • 0
  • 986
  • 0
  • @2007-01-02
发表于:2022-08-16 11:44|只看TA
字体大小:T|T

在这个板上问这种问题?

0
Advertisement
gokgs
头像
大校
  • 大校
  • 11859
  • 14
  • 13036
  • 0
  • @2020-10-13
发表于:2022-08-16 11:44|只看TA
字体大小:T|T

牛!

0
千渔千寻
头像
大校
  • 大校
  • 6530
  • 8
  • 8642
  • 0
  • @2020-09-05
发表于:2022-08-16 12:03|只看TA
字体大小:T|T

回复 1楼gooog的帖子

至少给个推倒过程让人家看看第二个特征向量是什么吧

0
Advertisement
Pelosi
头像
大校
  • 大校
  • 25424
  • 33
  • 27611
  • 0
  • @2020-06-22
发表于:2022-08-16 12:10|只看TA
字体大小:T|T

在这个板上问这种问题?


redpearl 发表于 2022-08-16 11:44

0
Pelosi
头像
大校
  • 大校
  • 25424
  • 33
  • 27611
  • 0
  • @2020-06-22
发表于:2022-08-16 12:11|只看TA
字体大小:T|T

在这个板上问这种问题?


redpearl 发表于 2022-08-16 11:44

0
gooog
头像
一等兵
  • 一等兵
  • 426
  • 0
  • 678
  • 0
  • @2019-02-09
发表于:2022-08-16 12:12|只看楼主
字体大小:T|T

回复 1楼gooog的帖子

至少给个推倒过程让人家看看第二个特征向量是什么吧


千渔千寻 发表于 2022-08-16 12:03

A x = lamda x

lamda = {lamda1, lamda2, lamda3...lamdan}

lamda1=0

x1=1


x2={x21,x22,x23,....x2n}

这个x2为什么可以用来给A代表的n个节点,分类?


0
千渔千寻
头像
大校
  • 大校
  • 6530
  • 8
  • 8642
  • 0
  • @2020-09-05
发表于:2022-08-16 12:13|只看TA
字体大小:T|T

回复 1楼gooog的帖子

买买提到了以后,想问学术难度,就苦逼了。

0
Advertisement
wswsn
头像
上士
  • 上士
  • 1319
  • 1
  • 1402
  • 0
  • @2020-10-19
发表于:2022-08-16 12:13|只看TA
字体大小:T|T

在这个板上问这种问题?


redpearl 发表于 2022-08-16 11:44

马工智商最高

0
Pelosi
头像
大校
  • 大校
  • 25424
  • 33
  • 27611
  • 0
  • @2020-06-22
发表于:2022-08-16 12:14|只看TA
字体大小:T|T

回复 1楼gooog的帖子

至少给个推倒过程让人家看看第二个特征向量是什么吧


千渔千寻 发表于 2022-08-16 12:03



“特征”一词译自德语的eigen,由希尔伯特在1904年首先在这个意义下使用(赫尔曼·冯·亥姆霍兹在更早的时候也在类似意义下使用过这一概念)。eigen一词可翻译为“自身的”,“特定于...的”,“有特征的”或者“个体的”—这强调了特征值对于定义特定的变换上是很重要的。


在数学上,特别是线性代数中,对于一个给定的方阵 A {\displaystyle A} A,它的特征向量(eigenvector,也译固有向量本征向量) v {\displaystyle v} v 经过这个线性变换[a]之后,得到的新向量仍然与原来的 v {\displaystyle v} v 保持在同一条直线上,但其长度或方向也许会改变。即


A v = λ v {\displaystyle Av=\lambda v} {\displaystyle Av=\lambda v}


λ {\displaystyle \lambda } \lambda 为标量,即特征向量的长度在该线性变换下缩放的比例,称 λ {\displaystyle \lambda } \lambda 为其特征值(eigenvalue,也译固有值本征值)。如果特征值为正,则表示 v {\displaystyle v} v 在经过线性变换的作用后方向也不变;如果特征值为负,说明方向会反转;如果特征值为0,则是表示缩回零点。但无论怎样,仍在同一条直线上。图1给出了一个以著名油画《蒙娜丽莎》为题材的例子。在一定条件下(如其矩阵形式为实对称矩阵的线性变换),一个变换可以由其特征值和特征向量完全表述,也就是说:所有的特征向量组成了这向量空间的一组基底。


一个特征空间(eigenspace)是具有相同特征值的特征向量与一个同维数的零向量的集合,可以证明该集合是一个线性子空间,比如 E λ = { u ∈ V ∣ A u = λ u } {\displaystyle \textstyle E_{\lambda }=\{u\in V\mid Au=\lambda u\}} {\displaystyle \textstyle E_{\lambda }=\{u\in V\mid Au=\lambda u\}} 即为线性变换 A {\displaystyle A} A 中以 λ {\displaystyle \lambda } \lambda 为特征值的特征空间



0
查看:1909|回复:31
Advertisement

回复贴子