您现在的位置是:主页 > news > 怎么去建设微信网站/上海广告推广
怎么去建设微信网站/上海广告推广
admin2025/5/16 8:31:58【news】
简介怎么去建设微信网站,上海广告推广,godaddy服务器做网站,网站建设找c宋南南多因变量非线性PLS1 多因变量非线性PLS[不是拟线性方法]1.1 计算推导1.2 简化算法1.3 性质Reference1 多因变量非线性PLS[不是拟线性方法] 1.1 计算推导 在PLS进行之前,首先要进行预备分析,目的是判断自变量(因变量)是否存在多重共线性,判断…
多因变量非线性PLS
- 1 多因变量非线性PLS[不是拟线性方法]
- 1.1 计算推导
- 1.2 简化算法
- 1.3 性质
- Reference
1 多因变量非线性PLS[不是拟线性方法]
1.1 计算推导
在PLS进行之前,首先要进行预备分析
,目的是判断自变量(因变量)是否存在多重共线性,判断因变量与自变量是否存在相关关系,进而决定是否需要采用PLS方法建模,具体计算方法:记矩阵Z=(X,Y)Z=(X,Y)Z=(X,Y),求ZZZ的各列数据之间的简单相关系数。然后考虑是否采用PLS,若采用:
①样本数据XXX与YYY标准化预处理
②记t1{{t}_{1}}t1是XXX的第1个成分有t1=Xw1{{t}_{1}}=X{{w}_{1}}t1=Xw1,其中w1{{w}_{1}}w1是XXX的第1个轴(单位列向量即∥w1∥=1\left\| {{w}_{1}} \right\|\text{=}1∥w1∥=1)。
u1{{u}_{1}}u1是YYY的第1个成分有u1=Yv1{{u}_{1}}=Y{{v}_{1}}u1=Yv1,其中v1{{v}_{1}}v1是XXX的第1个轴(单位列向量即∥v1∥=1\left\| {{v}_{1}} \right\|\text{=}1∥v1∥=1)。
t1{{t}_{1}}t1、u1{{u}_{1}}u1为列向量
,行数为nnn,即正好是样本集合数。
w1{{w}_{1}}w1为列向量
,行数为ppp,即正好是自变量个数
v1{{v}_{1}}v1为列向量
,行数为qqq,即正好是因变量个数
t1{{t}_{1}}t1和u1{{u}_{1}}u1满足(1)中两个条件则有:
变异信息最大:Var(t1)→max,Var(u1)→maxVar({{t}_{1}})\to \max ,Var({{u}_{1}})\to \maxVar(t1)→max,Var(u1)→max
相关程度最大:r(t1,u1)→maxr({{t}_{1}},{{u}_{1}})\to \maxr(t1,u1)→max
综合可得协方差最大:Cov(t1,u1)=r(t1,u1)Var(t1)Var(u1)→maxCov({{t}_{1}},{{u}_{1}})=r({{t}_{1}},{{u}_{1}})\sqrt{Var({{t}_{1}})Var({{u}_{1}})}\to \maxCov(t1,u1)=r(t1,u1)Var(t1)Var(u1)→max
由于1n<Xw1,Yv1>=Cov(t1,u1)\frac{1}{n}<X{{w}_{1}},Y{{v}_{1}}>=Cov({{t}_{1}},{{u}_{1}})n1<Xw1,Yv1>=Cov(t1,u1)且nnn为常数,则:
max<Xw1,Yv1>=(Xw1)TYv1=w1TXTYv1s.t{w1Tw1=∥w1∥2=1v1Tv1=∥v1∥2=1\begin{aligned} & \max <X{{w}_{1}},Y{{v}_{1}}>={{(X{{w}_{1}})}^{T}}Y{{v}_{1}}=w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}} \\ & s.t\left\{ \begin{matrix} w_{_{1}}^{T}{{w}_{1}}={{\left\| {{w}_{1}} \right\|}^{2}}=1 \\ v_{_{1}}^{T}{{v}_{1}}={{\left\| {{v}_{1}} \right\|}^{2}}=1 \\ \end{matrix} \right. \\ \end{aligned} max<Xw1,Yv1>=(Xw1)TYv1=w1TXTYv1s.t{w1Tw1=∥w1∥2=1v1Tv1=∥v1∥2=1
根据拉格朗日算法有:
f=w1TXTYv1−λ(w1Tw1−1)−μ(v1Tv1−1)f=w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}}-\lambda (w_{_{1}}^{T}{{w}_{1}}-1)-\mu (v_{_{1}}^{T}{{v}_{1}}-1) f=w1TXTYv1−λ(w1Tw1−1)−μ(v1Tv1−1)
对fff分别求关于w1,v1,λ,μ{{w}_{1}},{{v}_{1}},\lambda ,\muw1,v1,λ,μ的偏导且置0(求),有:
{∂f∂w1=XTYv1−2λw1=0∂f∂v1=YTXw1−2μv1=0∂f∂λ=−(w1Tw1−1)=0∂f∂μ=−(v1Tv1−1)=0\left\{ \begin{matrix} \frac{\partial f}{\partial {{w}_{1}}}={{X}^{T}}Y{{v}_{1}}-2\lambda {{w}_{1}}=0 \\ \frac{\partial f}{\partial {{v}_{1}}}={{Y}^{T}}X{{w}_{1}}-2\mu {{v}_{1}}=0 \\ \frac{\partial f}{\partial \lambda }=-(w_{_{1}}^{T}{{w}_{1}}-1)=0\ \ \ \ \\ \frac{\partial f}{\partial \mu }=-(v_{_{1}}^{T}{{v}_{1}}-1)=0\ \ \ \ \ \\ \end{matrix} \right. ⎩⎪⎪⎪⎨⎪⎪⎪⎧∂w1∂f=XTYv1−2λw1=0∂v1∂f=YTXw1−2μv1=0∂λ∂f=−(w1Tw1−1)=0 ∂μ∂f=−(v1Tv1−1)=0
由上式可推出:
2λ=2μ=w1TXTYv1=(Xw1)TYv1=<Xw1,Yv1>2\lambda =2\mu =w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}}={{(X{{w}_{1}})}^{T}}Y{{v}_{1}}\text{=}<X{{w}_{1}},Y{{v}_{1}}> 2λ=2μ=w1TXTYv1=(Xw1)TYv1=<Xw1,Yv1>
记θ1=2λ=2μ=w1TXTYv1{{\theta }_{1}}=2\lambda =2\mu =w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}}θ1=2λ=2μ=w1TXTYv1,则θ1{{\theta }_{1}}θ1是优化问题的目标函数且使是θ1{{\theta }_{1}}θ1达到最大必须有有:
{XTYv1=θ1w1YTXw1=θ1v1\left\{ \begin{aligned} & {{X}^{T}}Y{{v}_{1}}={{\theta }_{1}}{{w}_{1}} \\ & {{Y}^{T}}X{{w}_{1}}\text{=}{{\theta }_{1}}{{v}_{1}} \\ \end{aligned} \right. {XTYv1=θ1w1YTXw1=θ1v1
将上面组合式结合得:
XTY(1θ1YTXw1)=θ1w1⇒XTYYTXw1=θ12w1{{X}^{T}}Y(\frac{1}{{{\theta }_{1}}}{{Y}^{T}}X{{w}_{1}})={{\theta }_{1}}{{w}_{1}}\Rightarrow {{X}^{T}}Y{{Y}^{T}}X{{w}_{1}}=\theta _{_{1}}^{2}{{w}_{1}} XTY(θ11YTXw1)=θ1w1⇒XTYYTXw1=θ12w1
同理可得:
YTXXTYv1=θ12v1{{Y}^{T}}X{{X}^{T}}Y{{v}_{1}}=\theta _{_{1}}^{2}{{v}_{1}} YTXXTYv1=θ12v1
可见,w1{{w}_{1}}w1是矩阵XTYYTX{{X}^{T}}Y{{Y}^{T}}XXTYYTX的特征向量,对应的特征值为θ12\theta _{_{1}}^{2}θ12。θ1{{\theta }_{1}}θ1为目标函数值且为最大。则w1{{w}_{1}}w1是XTYYTX{{X}^{T}}Y{{Y}^{T}}XXTYYTX的最大特征值
θ12\theta _{_{1}}^{2}θ12的单位特征向量(列向量)。同理,v1{{v}_{1}}v1是YTXXTY{{Y}^{T}}X{{X}^{T}}YYTXXTY最大特征值
θ12\theta _{_{1}}^{2}θ12的单位特征向量(列向量)。
我们通过求得w1{{w}_{1}}w1和v1{{v}_{1}}v1之后即可得到第1成分:
{t1=Xw1u1=Yv1\left\{ \begin{aligned} & {{t}_{1}}=X{{w}_{1}} \\ & {{u}_{1}}=Y{{v}_{1}} \\ \end{aligned} \right. {t1=Xw1u1=Yv1
由(1)式我们可以进一步推导出:
θ1=<t1,u1>=w1TXTYv1{{\theta }_{1}}\text{=}<{{t}_{1}},{{u}_{1}}>=w_{1}^{T}{{X}^{T}}Y{{v}_{1}} θ1=<t1,u1>=w1TXTYv1
然后分别进行XXX、YYY对t1{{t}_{1}}t1的非线性回归
(这里YYY对t1{{t}_{1}}t1的非线性回归
):
{X=g(t1)+X1Y=f(t1)+Y1Y=ψ(u1)+Y1∗\left\{ \begin{aligned} & X=g\left( {{t}_{1}} \right)+{{X}_{1}} \\ & Y=f\left( {{t}_{1}} \right)+Y_{1}^{{}} \\ & Y=\psi \left( {{u}_{1}} \right)+Y_{1}^{*} \\ \end{aligned} \right. ⎩⎪⎨⎪⎧X=g(t1)+X1Y=f(t1)+Y1Y=ψ(u1)+Y1∗
另外,X1{{X}_{1}}X1、Y1{{Y}_{1}}Y1则为XXX、YYY的残差信息矩阵。(回归系数向量可利用PLS回归性质推导?)
在PLS方法中,我们称www为模型效应权重(Model Effect Weights),vvv为因变量权重(Dependent Variable Weights),ppp为模型效应载荷量(Model Effect Loadings)。 模型效应指的就是X即自变量O(∩_∩)O哈哈~
得分向量ttt,载荷向量ppp,权重向量www.
[注意]在上面3个非线性回归方程中,Y对u的非线性回归方程在后面计算中不再接触到,因此,不会再求解这个方程。
③用残差信息矩阵X1{{X}_{1}}X1、Y1{{Y}_{1}}Y1取代XXX、YYY,求第2个成分t2{{t}_{2}}t2、u2{{u}_{2}}u2和第2个轴w2{{w}_{2}}w2、v2{{v}_{2}}v2,即:
{t2=X1w2u2=Y1v2\left\{ \begin{aligned} & {{t}_{2}}={{X}_{1}}{{w}_{2}} \\ & {{u}_{2}}={{Y}_{1}}{{v}_{2}} \\ \end{aligned} \right. {t2=X1w2u2=Y1v2
θ2=<t2,u2>=w2TX1TY1v2{{\theta }_{2}}=<{{t}_{2}},{{u}_{2}}>=w_{2}^{T}X_{1}^{T}{{Y}_{1}}{{v}_{2}} θ2=<t2,u2>=w2TX1TY1v2
w2{{w}_{2}}w2是对应于矩阵X1TY1Y1TX1X_{1}^{T}{{Y}_{1}}Y_{1}^{T}{{X}_{1}}X1TY1Y1TX1最大特征值θ2{{\theta }_{2}}θ2的特征向量(列向量),v2{{v}_{2}}v2是对应于矩阵Y1TX1X1TY1Y_{1}^{T}{{X}_{1}}X_{1}^{T}{{Y}_{1}}Y1TX1X1TY1最大特征值的特征向量(列向量),于是回归方程:
{X1=f(t2)+X2Y1=g(t2)+Y2\left\{ \begin{aligned} & {{X}_{1}}=f\left( {{t}_{2}} \right)+{{X}_{2}} \\ & {{Y}_{1}}=g\left( {{t}_{2}} \right)+{{Y}_{2}} \\ \end{aligned} \right. {X1=f(t2)+X2Y1=g(t2)+Y2
④如此利用剩下的残差信息矩阵不断迭代计算,我们假设XXX的秩为mmm(即可以有A个成分):
{X=g(t1)+g(t2)+⋯+g(tm)+XmY=f(t1)+f(t2)+⋯+f(tm)+Ym\left\{ \begin{aligned} & X=g\left( {{t}_{1}} \right)+g\left( {{t}_{2}} \right)+\cdots +g\left( {{t}_{m}} \right)+{{X}_{m}} \\ & Y=f\left( {{t}_{1}} \right)+f\left( {{t}_{2}} \right)+\cdots +f\left( {{t}_{m}} \right)\text{+}{{Y}_{m}} \\ \end{aligned} \right. {X=g(t1)+g(t2)+⋯+g(tm)+XmY=f(t1)+f(t2)+⋯+f(tm)+Ym
1.2 简化算法
在上面的非线性偏最小二乘模型计算过程中,每次求出主成分后,都需要求出自变量数据集和主成分之间的非线性回归,如提取第1个主成分ttt后,计算X=g(t1)+X1X=g\left( {{t}_{1}} \right)+{{X}_{1}}X=g(t1)+X1,这里t1{{t}_{1}}t1是XXX中提取出来的主成分,并且是线性的,即t1{{t}_{1}}t1是自变量数据集的线性组合,反之,自变量数据集同时也是t1{{t}_{1}}t1的线性组合,因此,X=g(t1)+X1X=g\left( {{t}_{1}} \right)+{{X}_{1}}X=g(t1)+X1进行的非线性关系方程其实本质上是一个线性回归方程,因此,在后面的计算中,XXX对主成分的回归可简化为线性回归。即X=t1p1T+X1X={{t}_{1}}p_{1}^{T}+{{X}_{1}}X=t1p1T+X1,再次进行推导有:
{X=g(t1)+X1↔X=t1p1T+X1Y=f(t1)+Y1\left\{ \begin{aligned} & X=g\left( {{t}_{1}} \right)+{{X}_{1}}\leftrightarrow X={{t}_{1}}p_{1}^{T}+{{X}_{1}} \\ & Y=f\left( {{t}_{1}} \right)+Y_{1}^{{}} \\ \end{aligned} \right. {X=g(t1)+X1↔X=t1p1T+X1Y=f(t1)+Y1
其中
p1=XTt1∥t1∥2{{p}_{1}}=\frac{{{X}^{T}}{{t}_{1}}}{{{\left\| {{t}_{1}} \right\|}^{2}}} p1=∥t1∥2XTt1
{X=t1p1T+t2p2T+⋯+tmpmT+XmY=f(t1)+f(t2)+⋯+f(tm)+Ym\left\{ \begin{aligned} & X={{t}_{1}}p_{1}^{T}+{{t}_{2}}p_{2}^{T}+\cdots +{{t}_{m}}p_{m}^{T}+{{X}_{m}} \\ & Y=f\left( {{t}_{1}} \right)+f\left( {{t}_{2}} \right)+\cdots +f\left( {{t}_{m}} \right)\text{+}{{Y}_{m}} \\ \end{aligned} \right. {X=t1p1T+t2p2T+⋯+tmpmT+XmY=f(t1)+f(t2)+⋯+f(tm)+Ym
等价于
由于wh∗=∏k=1h−1(E−wkpkT)wh&th=Xwh∗w_{h}^{*}=\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})}{{w}_{h}}\ \And \ \ {{t}_{h}}=Xw_{h}^{*}wh∗=k=1∏h−1(E−wkpkT)wh & th=Xwh∗ (性质)则有:
Y=f(t1)+f(t2)+⋯+f(tm)+Ym=f(Xw1∗)+f(Xw2∗)+⋯+f(Xwm∗)+Ym\begin{aligned} & Y=f\left( {{t}_{1}} \right)+f\left( {{t}_{2}} \right)+\cdots +f\left( {{t}_{m}} \right)+{{Y}_{m}} \\ & \ \ \ =f(Xw_{1}^{*})+f(Xw_{2}^{*})+\cdots +f(Xw_{m}^{*})+{{Y}_{m}} \\ \end{aligned} Y=f(t1)+f(t2)+⋯+f(tm)+Ym =f(Xw1∗)+f(Xw2∗)+⋯+f(Xwm∗)+Ym
【注意】
对于主成分个数的判定,不会完全提取全部AAA个主成分(AAA为原始自变量数据集的秩),一般情况下,提取的前mmm个主成分能够代表自变量原始数据的绝大部分比例数据信息就可停止后续计算步骤,或者残差信息比较小时也可停止计算步骤。两者代表的意义是相同的。因此,在一般的案例实证分析中,一般要求对原始自变量数据集提取信息的比例超过80%即可停止继续提取主成分。
1.3 性质
根据
{XTYv1=θ1w1YTXw1=θ1v1\left\{ \begin{aligned} & {{X}^{T}}Y{{v}_{1}}={{\theta }_{1}}{{w}_{1}} \\ & {{Y}^{T}}X{{w}_{1}}\text{=}{{\theta }_{1}}{{v}_{1}} \\ \end{aligned} \right. {XTYv1=θ1w1YTXw1=θ1v1
和
{t1=Xw1u1=Yv1\left\{ \begin{aligned} & {{t}_{1}}=X{{w}_{1}} \\ & {{u}_{1}}=Y{{v}_{1}} \\ \end{aligned} \right. {t1=Xw1u1=Yv1
可以得到:
{th=Xh−1whuh=Yh−1vhwh=1θhXh−1TYvh=1θhXh−1Tuhvh=1θhYh−1TXwh=1θhXh−1Tth\left\{ \begin{matrix} \begin{aligned} & {{t}_{h}}={{X}_{h-1}}{{w}_{h}} \\ & {{u}_{h}}={{Y}_{h-1}}{{v}_{h}} \\ \end{aligned} \\ {{w}_{h}}=\frac{1}{{{\theta }_{h}}}X_{h-1}^{T}Y{{v}_{h}}=\frac{1}{{{\theta }_{h}}}X_{h-1}^{T}{{u}_{h}} \\ {{v}_{h}}=\frac{1}{{{\theta }_{h}}}Y_{h-1}^{T}X{{w}_{h}}=\frac{1}{{{\theta }_{h}}}X_{h-1}^{T}{{t}_{h}} \\ \end{matrix} \right. ⎩⎪⎪⎪⎨⎪⎪⎪⎧th=Xh−1whuh=Yh−1vhwh=θh1Xh−1TYvh=θh1Xh−1Tuhvh=θh1Yh−1TXwh=θh1Xh−1Tth
①轴w1,w2,⋯,wm{{w}_{1}},{{w}_{2}},\cdots ,{{w}_{m}}w1,w2,⋯,wm之间相互直交
②成分t1,t2,⋯,tm{{t}_{1}},{{t}_{2}},\cdots ,{{t}_{m}}t1,t2,⋯,tm之间相互直交
③thTXl=0(l≥h)t_{h}^{T}{{X}_{l}}=0(l\ge h)thTXl=0(l≥h)
④phTwh=(thTXh−1∥th∥2)wh=thT(Xh−1wh)∥th∥2=thTth∥th∥2=1p_{h}^{T}{{w}_{h}}=(\frac{t_{h}^{T}{{X}_{h-1}}}{{{\left\| {{t}_{h}} \right\|}^{2}}}){{w}_{h}}=\frac{t_{h}^{T}({{X}_{h-1}}{{w}_{h}})}{{{\left\| {{t}_{h}} \right\|}^{2}}}=\frac{t_{h}^{T}{{t}_{h}}}{{{\left\| {{t}_{h}} \right\|}^{2}}}=1phTwh=(∥th∥2thTXh−1)wh=∥th∥2thT(Xh−1wh)=∥th∥2thTth=1
⑤轴wh{{w}_{h}}wh与后续回归系数向量正交即whTpl=whTXl−1Ttl∥tl∥2=0w_{h}^{T}{{p}_{l}}=w_{h}^{T}\frac{X_{l-1}^{T}{{t}_{l}}}{{{\left\| {{t}_{l}} \right\|}^{2}}}=0whTpl=whT∥tl∥2Xl−1Ttl=0
⑥(重要)
∀h≥1\forall h\ge 1∀h≥1,有Xh{{X}_{h}}Xh与XXX的关系式:
Xh=X∏k=1h(E−wkpkT){{X}_{h}}=X\prod\limits_{k=1}^{h}{(E-{{w}_{k}}p_{k}^{T})}Xh=Xk=1∏h(E−wkpkT)
其中EEE为单位矩阵
证明(数学归纳法):
当h=1h=1h=1时,X1=X−t1p1T=X−Xw1p1T=X(E−w1p1T){{X}_{1}}=X-{{t}_{1}}p_{1}^{T}=X-X{{w}_{1}}p_{1}^{T}=X(E-{{w}_{1}}p_{1}^{T})X1=X−t1p1T=X−Xw1p1T=X(E−w1p1T)
设在h=kh=kh=k时成立,则证h=k+1h=k+1h=k+1时也成立:
Xk+1=Xk−tk+1pk+1T=Xk−(Xkwk+1)pk+1T=Xk(E−wk+1pk+1T)=[X∏h=1k(E−whphT)](E−wk+1pk+1T)\begin{aligned} & {{X}_{k+1}}={{X}_{k}}-{{\color{red}{t}_{k+1}}}p_{k+1}^{T}={{X}_{k}}-{\color{red}({{X}_{k}}{{w}_{k+1}})}p_{k+1}^{T} \\ & \ \ \ \ \ \ \ ={{X}_{k}}(E-{{w}_{k+1}}p_{k+1}^{T}) \\ & \ \ \ \ \ \ \ =\left[ X\prod\limits_{h=1}^{k}{(E-{{w}_{h}}p_{h}^{T})} \right](E-{{w}_{k+1}}p_{k+1}^{T}) \\ \end{aligned} Xk+1=Xk−tk+1pk+1T=Xk−(Xkwk+1)pk+1T =Xk(E−wk+1pk+1T) =[Xh=1∏k(E−whphT)](E−wk+1pk+1T)
则得证。
⑦任一成分th{{t}_{h}}th是原自变量XXX的线性组合即:
th=Xh−1wh=X∏k=1h−1(E−wkpkT)wh=Xwh∗{{t}_{h}}={{X}_{h-1}}{{w}_{h}}=X\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})}{{w}_{h}}=Xw_{h}^{*} th=Xh−1wh=Xk=1∏h−1(E−wkpkT)wh=Xwh∗
其中
wh∗=∏k=1h−1(E−wkpkT)wh=wh∏k=1h−1(E−wkpkT)=wh{(E−w1p1T)(E−w2p2T)⋯(E−wh−1ph−1T)}\begin{aligned} & w_{h}^{*}=\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})}{{w}_{h}}={{w}_{h}}\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})} \\ & ={{w}_{h}}\left\{ \left( E-{{w}_{1}}p_{1}^{T} \right)\left( E-{{w}_{2}}p_{2}^{T} \right)\ \ \cdots \left( E-{{w}_{h-1}}p_{h-1}^{T} \right)\ \right\} \\ \end{aligned} wh∗=k=1∏h−1(E−wkpkT)wh=whk=1∏h−1(E−wkpkT)=wh{(E−w1p1T)(E−w2p2T) ⋯(E−wh−1ph−1T) }
EEE为单位矩阵。
【编程计算问题】
初始化chg=Echg=Echg=E
h=1 求w1∗=w1×(E−O)=w1×chgw_{1}^{*}={{w}_{1}}\times \left( E-O \right)={{w}_{1}}\times chgw1∗=w1×(E−O)=w1×chg
h=2 chg发生变化,chg=chg×(E−w1p1T)chg=chg\times \left( E-{{w}_{1}}p_{1}^{T} \right)chg=chg×(E−w1p1T),求w2∗=w2×chgw_{2}^{*}={{w}_{2}}\times chgw2∗=w2×chg
h=3 chg发生变化,chg=chg×(E−w2p2T)chg=chg\times \left( E-{{w}_{2}}p_{2}^{T} \right)chg=chg×(E−w2p2T),求w3∗=w3×chgw_{3}^{*}={{w}_{3}}\times chgw3∗=w3×chg
以上证明过程(王惠文书有)。
Reference
王惠文.偏最小二乘方法原理及其应用
郭建校. 改进的高维非线性PLS回归方法及应用研究[D]. 天津大学, 2010.