您现在的位置是:主页 > news > 怎么去建设微信网站/上海广告推广

怎么去建设微信网站/上海广告推广

admin2025/5/16 8:31:58news

简介怎么去建设微信网站,上海广告推广,godaddy服务器做网站,网站建设找c宋南南多因变量非线性PLS1 多因变量非线性PLS[不是拟线性方法]1.1 计算推导1.2 简化算法1.3 性质Reference1 多因变量非线性PLS[不是拟线性方法] 1.1 计算推导 在PLS进行之前,首先要进行预备分析,目的是判断自变量(因变量)是否存在多重共线性,判断…

怎么去建设微信网站,上海广告推广,godaddy服务器做网站,网站建设找c宋南南多因变量非线性PLS1 多因变量非线性PLS[不是拟线性方法]1.1 计算推导1.2 简化算法1.3 性质Reference1 多因变量非线性PLS[不是拟线性方法] 1.1 计算推导 在PLS进行之前,首先要进行预备分析,目的是判断自变量(因变量)是否存在多重共线性,判断…

多因变量非线性PLS

  • 1 多因变量非线性PLS[不是拟线性方法]
    • 1.1 计算推导
    • 1.2 简化算法
    • 1.3 性质
  • Reference

1 多因变量非线性PLS[不是拟线性方法]

1.1 计算推导

在PLS进行之前,首先要进行预备分析,目的是判断自变量(因变量)是否存在多重共线性,判断因变量与自变量是否存在相关关系,进而决定是否需要采用PLS方法建模,具体计算方法:记矩阵Z=(X,Y)Z=(X,Y)Z=(X,Y),求ZZZ的各列数据之间的简单相关系数。然后考虑是否采用PLS,若采用:
①样本数据XXXYYY标准化预处理
②记t1{{t}_{1}}t1XXX的第1个成分有t1=Xw1{{t}_{1}}=X{{w}_{1}}t1=Xw1,其中w1{{w}_{1}}w1XXX的第1个轴(单位列向量即∥w1∥=1\left\| {{w}_{1}} \right\|\text{=}1w1=1)。
u1{{u}_{1}}u1YYY的第1个成分有u1=Yv1{{u}_{1}}=Y{{v}_{1}}u1=Yv1,其中v1{{v}_{1}}v1XXX的第1个轴(单位列向量即∥v1∥=1\left\| {{v}_{1}} \right\|\text{=}1v1=1)。
t1{{t}_{1}}t1u1{{u}_{1}}u1列向量,行数为nnn,即正好是样本集合数。
w1{{w}_{1}}w1列向量,行数为ppp,即正好是自变量个数
v1{{v}_{1}}v1列向量,行数为qqq,即正好是因变量个数
t1{{t}_{1}}t1u1{{u}_{1}}u1满足(1)中两个条件则有:
变异信息最大:Var(t1)→max⁡,Var(u1)→max⁡Var({{t}_{1}})\to \max ,Var({{u}_{1}})\to \maxVar(t1)max,Var(u1)max
相关程度最大:r(t1,u1)→max⁡r({{t}_{1}},{{u}_{1}})\to \maxr(t1,u1)max
综合可得协方差最大:Cov(t1,u1)=r(t1,u1)Var(t1)Var(u1)→max⁡Cov({{t}_{1}},{{u}_{1}})=r({{t}_{1}},{{u}_{1}})\sqrt{Var({{t}_{1}})Var({{u}_{1}})}\to \maxCov(t1,u1)=r(t1,u1)Var(t1)Var(u1)max
由于1n<Xw1,Yv1>=Cov(t1,u1)\frac{1}{n}<X{{w}_{1}},Y{{v}_{1}}>=Cov({{t}_{1}},{{u}_{1}})n1<Xw1,Yv1>=Cov(t1,u1)nnn为常数,则:
max⁡<Xw1,Yv1>=(Xw1)TYv1=w1TXTYv1s.t{w1Tw1=∥w1∥2=1v1Tv1=∥v1∥2=1\begin{aligned} & \max <X{{w}_{1}},Y{{v}_{1}}>={{(X{{w}_{1}})}^{T}}Y{{v}_{1}}=w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}} \\ & s.t\left\{ \begin{matrix} w_{_{1}}^{T}{{w}_{1}}={{\left\| {{w}_{1}} \right\|}^{2}}=1 \\ v_{_{1}}^{T}{{v}_{1}}={{\left\| {{v}_{1}} \right\|}^{2}}=1 \\ \end{matrix} \right. \\ \end{aligned} max<Xw1,Yv1>=(Xw1)TYv1=w1TXTYv1s.t{w1Tw1=w12=1v1Tv1=v12=1
根据拉格朗日算法有:
f=w1TXTYv1−λ(w1Tw1−1)−μ(v1Tv1−1)f=w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}}-\lambda (w_{_{1}}^{T}{{w}_{1}}-1)-\mu (v_{_{1}}^{T}{{v}_{1}}-1) f=w1TXTYv1λ(w1Tw11)μ(v1Tv11)
fff分别求关于w1,v1,λ,μ{{w}_{1}},{{v}_{1}},\lambda ,\muw1,v1,λ,μ的偏导且置0(求),有:
{∂f∂w1=XTYv1−2λw1=0∂f∂v1=YTXw1−2μv1=0∂f∂λ=−(w1Tw1−1)=0∂f∂μ=−(v1Tv1−1)=0\left\{ \begin{matrix} \frac{\partial f}{\partial {{w}_{1}}}={{X}^{T}}Y{{v}_{1}}-2\lambda {{w}_{1}}=0 \\ \frac{\partial f}{\partial {{v}_{1}}}={{Y}^{T}}X{{w}_{1}}-2\mu {{v}_{1}}=0 \\ \frac{\partial f}{\partial \lambda }=-(w_{_{1}}^{T}{{w}_{1}}-1)=0\ \ \ \ \\ \frac{\partial f}{\partial \mu }=-(v_{_{1}}^{T}{{v}_{1}}-1)=0\ \ \ \ \ \\ \end{matrix} \right. w1f=XTYv12λw1=0v1f=YTXw12μv1=0λf=(w1Tw11)=0    μf=(v1Tv11)=0     
由上式可推出:
2λ=2μ=w1TXTYv1=(Xw1)TYv1=<Xw1,Yv1>2\lambda =2\mu =w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}}={{(X{{w}_{1}})}^{T}}Y{{v}_{1}}\text{=}<X{{w}_{1}},Y{{v}_{1}}> 2λ=2μ=w1TXTYv1=(Xw1)TYv1=<Xw1,Yv1>
θ1=2λ=2μ=w1TXTYv1{{\theta }_{1}}=2\lambda =2\mu =w_{_{1}}^{T}{{X}^{T}}Y{{v}_{1}}θ1=2λ=2μ=w1TXTYv1,则θ1{{\theta }_{1}}θ1是优化问题的目标函数且使是θ1{{\theta }_{1}}θ1达到最大必须有有:
{XTYv1=θ1w1YTXw1=θ1v1\left\{ \begin{aligned} & {{X}^{T}}Y{{v}_{1}}={{\theta }_{1}}{{w}_{1}} \\ & {{Y}^{T}}X{{w}_{1}}\text{=}{{\theta }_{1}}{{v}_{1}} \\ \end{aligned} \right. {XTYv1=θ1w1YTXw1=θ1v1
将上面组合式结合得:
XTY(1θ1YTXw1)=θ1w1⇒XTYYTXw1=θ12w1{{X}^{T}}Y(\frac{1}{{{\theta }_{1}}}{{Y}^{T}}X{{w}_{1}})={{\theta }_{1}}{{w}_{1}}\Rightarrow {{X}^{T}}Y{{Y}^{T}}X{{w}_{1}}=\theta _{_{1}}^{2}{{w}_{1}} XTY(θ11YTXw1)=θ1w1XTYYTXw1=θ12w1
同理可得:
YTXXTYv1=θ12v1{{Y}^{T}}X{{X}^{T}}Y{{v}_{1}}=\theta _{_{1}}^{2}{{v}_{1}} YTXXTYv1=θ12v1
可见,w1{{w}_{1}}w1是矩阵XTYYTX{{X}^{T}}Y{{Y}^{T}}XXTYYTX的特征向量,对应的特征值为θ12\theta _{_{1}}^{2}θ12θ1{{\theta }_{1}}θ1为目标函数值且为最大。则w1{{w}_{1}}w1XTYYTX{{X}^{T}}Y{{Y}^{T}}XXTYYTX最大特征值θ12\theta _{_{1}}^{2}θ12的单位特征向量(列向量)。同理,v1{{v}_{1}}v1YTXXTY{{Y}^{T}}X{{X}^{T}}YYTXXTY最大特征值θ12\theta _{_{1}}^{2}θ12的单位特征向量(列向量)。
我们通过求得w1{{w}_{1}}w1v1{{v}_{1}}v1之后即可得到第1成分:
{t1=Xw1u1=Yv1\left\{ \begin{aligned} & {{t}_{1}}=X{{w}_{1}} \\ & {{u}_{1}}=Y{{v}_{1}} \\ \end{aligned} \right. {t1=Xw1u1=Yv1
由(1)式我们可以进一步推导出:
θ1=<t1,u1>=w1TXTYv1{{\theta }_{1}}\text{=}<{{t}_{1}},{{u}_{1}}>=w_{1}^{T}{{X}^{T}}Y{{v}_{1}} θ1=<t1,u1>=w1TXTYv1

然后分别进行XXXYYYt1{{t}_{1}}t1非线性回归(这里YYYt1{{t}_{1}}t1非线性回归):
{X=g(t1)+X1Y=f(t1)+Y1Y=ψ(u1)+Y1∗\left\{ \begin{aligned} & X=g\left( {{t}_{1}} \right)+{{X}_{1}} \\ & Y=f\left( {{t}_{1}} \right)+Y_{1}^{{}} \\ & Y=\psi \left( {{u}_{1}} \right)+Y_{1}^{*} \\ \end{aligned} \right. X=g(t1)+X1Y=f(t1)+Y1Y=ψ(u1)+Y1
另外,X1{{X}_{1}}X1Y1{{Y}_{1}}Y1则为XXXYYY的残差信息矩阵。(回归系数向量可利用PLS回归性质推导?)
在PLS方法中,我们称www为模型效应权重(Model Effect Weights),vvv为因变量权重(Dependent Variable Weights),ppp为模型效应载荷量(Model Effect Loadings)。 模型效应指的就是X即自变量O(∩_∩)O哈哈~
得分向量ttt,载荷向量ppp,权重向量www.
[注意]在上面3个非线性回归方程中,Y对u的非线性回归方程在后面计算中不再接触到,因此,不会再求解这个方程。

③用残差信息矩阵X1{{X}_{1}}X1Y1{{Y}_{1}}Y1取代XXXYYY,求第2个成分t2{{t}_{2}}t2u2{{u}_{2}}u2和第2个轴w2{{w}_{2}}w2v2{{v}_{2}}v2,即:
{t2=X1w2u2=Y1v2\left\{ \begin{aligned} & {{t}_{2}}={{X}_{1}}{{w}_{2}} \\ & {{u}_{2}}={{Y}_{1}}{{v}_{2}} \\ \end{aligned} \right. {t2=X1w2u2=Y1v2
θ2=<t2,u2>=w2TX1TY1v2{{\theta }_{2}}=<{{t}_{2}},{{u}_{2}}>=w_{2}^{T}X_{1}^{T}{{Y}_{1}}{{v}_{2}} θ2=<t2,u2>=w2TX1TY1v2

w2{{w}_{2}}w2是对应于矩阵X1TY1Y1TX1X_{1}^{T}{{Y}_{1}}Y_{1}^{T}{{X}_{1}}X1TY1Y1TX1最大特征值θ2{{\theta }_{2}}θ2的特征向量(列向量),v2{{v}_{2}}v2是对应于矩阵Y1TX1X1TY1Y_{1}^{T}{{X}_{1}}X_{1}^{T}{{Y}_{1}}Y1TX1X1TY1最大特征值的特征向量(列向量),于是回归方程:
{X1=f(t2)+X2Y1=g(t2)+Y2\left\{ \begin{aligned} & {{X}_{1}}=f\left( {{t}_{2}} \right)+{{X}_{2}} \\ & {{Y}_{1}}=g\left( {{t}_{2}} \right)+{{Y}_{2}} \\ \end{aligned} \right. {X1=f(t2)+X2Y1=g(t2)+Y2
④如此利用剩下的残差信息矩阵不断迭代计算,我们假设XXX的秩为mmm(即可以有A个成分):
{X=g(t1)+g(t2)+⋯+g(tm)+XmY=f(t1)+f(t2)+⋯+f(tm)+Ym\left\{ \begin{aligned} & X=g\left( {{t}_{1}} \right)+g\left( {{t}_{2}} \right)+\cdots +g\left( {{t}_{m}} \right)+{{X}_{m}} \\ & Y=f\left( {{t}_{1}} \right)+f\left( {{t}_{2}} \right)+\cdots +f\left( {{t}_{m}} \right)\text{+}{{Y}_{m}} \\ \end{aligned} \right. {X=g(t1)+g(t2)++g(tm)+XmY=f(t1)+f(t2)++f(tm)+Ym

1.2 简化算法

在上面的非线性偏最小二乘模型计算过程中,每次求出主成分后,都需要求出自变量数据集和主成分之间的非线性回归,如提取第1个主成分ttt后,计算X=g(t1)+X1X=g\left( {{t}_{1}} \right)+{{X}_{1}}X=g(t1)+X1,这里t1{{t}_{1}}t1XXX中提取出来的主成分,并且是线性的,即t1{{t}_{1}}t1是自变量数据集的线性组合,反之,自变量数据集同时也是t1{{t}_{1}}t1的线性组合,因此,X=g(t1)+X1X=g\left( {{t}_{1}} \right)+{{X}_{1}}X=g(t1)+X1进行的非线性关系方程其实本质上是一个线性回归方程,因此,在后面的计算中,XXX对主成分的回归可简化为线性回归。即X=t1p1T+X1X={{t}_{1}}p_{1}^{T}+{{X}_{1}}X=t1p1T+X1,再次进行推导有:
{X=g(t1)+X1↔X=t1p1T+X1Y=f(t1)+Y1\left\{ \begin{aligned} & X=g\left( {{t}_{1}} \right)+{{X}_{1}}\leftrightarrow X={{t}_{1}}p_{1}^{T}+{{X}_{1}} \\ & Y=f\left( {{t}_{1}} \right)+Y_{1}^{{}} \\ \end{aligned} \right. {X=g(t1)+X1X=t1p1T+X1Y=f(t1)+Y1
其中
p1=XTt1∥t1∥2{{p}_{1}}=\frac{{{X}^{T}}{{t}_{1}}}{{{\left\| {{t}_{1}} \right\|}^{2}}} p1=t12XTt1
{X=t1p1T+t2p2T+⋯+tmpmT+XmY=f(t1)+f(t2)+⋯+f(tm)+Ym\left\{ \begin{aligned} & X={{t}_{1}}p_{1}^{T}+{{t}_{2}}p_{2}^{T}+\cdots +{{t}_{m}}p_{m}^{T}+{{X}_{m}} \\ & Y=f\left( {{t}_{1}} \right)+f\left( {{t}_{2}} \right)+\cdots +f\left( {{t}_{m}} \right)\text{+}{{Y}_{m}} \\ \end{aligned} \right. {X=t1p1T+t2p2T++tmpmT+XmY=f(t1)+f(t2)++f(tm)+Ym
等价于
由于wh∗=∏k=1h−1(E−wkpkT)wh&th=Xwh∗w_{h}^{*}=\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})}{{w}_{h}}\ \And \ \ {{t}_{h}}=Xw_{h}^{*}wh=k=1h1(EwkpkT)wh &  th=Xwh (性质)则有:
Y=f(t1)+f(t2)+⋯+f(tm)+Ym=f(Xw1∗)+f(Xw2∗)+⋯+f(Xwm∗)+Ym\begin{aligned} & Y=f\left( {{t}_{1}} \right)+f\left( {{t}_{2}} \right)+\cdots +f\left( {{t}_{m}} \right)+{{Y}_{m}} \\ & \ \ \ =f(Xw_{1}^{*})+f(Xw_{2}^{*})+\cdots +f(Xw_{m}^{*})+{{Y}_{m}} \\ \end{aligned} Y=f(t1)+f(t2)++f(tm)+Ym   =f(Xw1)+f(Xw2)++f(Xwm)+Ym
【注意】
对于主成分个数的判定,不会完全提取全部AAA个主成分(AAA为原始自变量数据集的秩),一般情况下,提取的前mmm个主成分能够代表自变量原始数据的绝大部分比例数据信息就可停止后续计算步骤,或者残差信息比较小时也可停止计算步骤。两者代表的意义是相同的。因此,在一般的案例实证分析中,一般要求对原始自变量数据集提取信息的比例超过80%即可停止继续提取主成分。

1.3 性质

根据
{XTYv1=θ1w1YTXw1=θ1v1\left\{ \begin{aligned} & {{X}^{T}}Y{{v}_{1}}={{\theta }_{1}}{{w}_{1}} \\ & {{Y}^{T}}X{{w}_{1}}\text{=}{{\theta }_{1}}{{v}_{1}} \\ \end{aligned} \right. {XTYv1=θ1w1YTXw1=θ1v1

{t1=Xw1u1=Yv1\left\{ \begin{aligned} & {{t}_{1}}=X{{w}_{1}} \\ & {{u}_{1}}=Y{{v}_{1}} \\ \end{aligned} \right. {t1=Xw1u1=Yv1
可以得到:
{th=Xh−1whuh=Yh−1vhwh=1θhXh−1TYvh=1θhXh−1Tuhvh=1θhYh−1TXwh=1θhXh−1Tth\left\{ \begin{matrix} \begin{aligned} & {{t}_{h}}={{X}_{h-1}}{{w}_{h}} \\ & {{u}_{h}}={{Y}_{h-1}}{{v}_{h}} \\ \end{aligned} \\ {{w}_{h}}=\frac{1}{{{\theta }_{h}}}X_{h-1}^{T}Y{{v}_{h}}=\frac{1}{{{\theta }_{h}}}X_{h-1}^{T}{{u}_{h}} \\ {{v}_{h}}=\frac{1}{{{\theta }_{h}}}Y_{h-1}^{T}X{{w}_{h}}=\frac{1}{{{\theta }_{h}}}X_{h-1}^{T}{{t}_{h}} \\ \end{matrix} \right. th=Xh1whuh=Yh1vhwh=θh1Xh1TYvh=θh1Xh1Tuhvh=θh1Yh1TXwh=θh1Xh1Tth
①轴w1,w2,⋯,wm{{w}_{1}},{{w}_{2}},\cdots ,{{w}_{m}}w1,w2,,wm之间相互直交
②成分t1,t2,⋯,tm{{t}_{1}},{{t}_{2}},\cdots ,{{t}_{m}}t1,t2,,tm之间相互直交
thTXl=0(l≥h)t_{h}^{T}{{X}_{l}}=0(l\ge h)thTXl=0(lh)
phTwh=(thTXh−1∥th∥2)wh=thT(Xh−1wh)∥th∥2=thTth∥th∥2=1p_{h}^{T}{{w}_{h}}=(\frac{t_{h}^{T}{{X}_{h-1}}}{{{\left\| {{t}_{h}} \right\|}^{2}}}){{w}_{h}}=\frac{t_{h}^{T}({{X}_{h-1}}{{w}_{h}})}{{{\left\| {{t}_{h}} \right\|}^{2}}}=\frac{t_{h}^{T}{{t}_{h}}}{{{\left\| {{t}_{h}} \right\|}^{2}}}=1phTwh=(th2thTXh1)wh=th2thT(Xh1wh)=th2thTth=1
⑤轴wh{{w}_{h}}wh与后续回归系数向量正交即whTpl=whTXl−1Ttl∥tl∥2=0w_{h}^{T}{{p}_{l}}=w_{h}^{T}\frac{X_{l-1}^{T}{{t}_{l}}}{{{\left\| {{t}_{l}} \right\|}^{2}}}=0whTpl=whTtl2Xl1Ttl=0
(重要)∀h≥1\forall h\ge 1h1,有Xh{{X}_{h}}XhXXX的关系式:
Xh=X∏k=1h(E−wkpkT){{X}_{h}}=X\prod\limits_{k=1}^{h}{(E-{{w}_{k}}p_{k}^{T})}Xh=Xk=1h(EwkpkT)
其中EEE为单位矩阵
证明(数学归纳法):
h=1h=1h=1时,X1=X−t1p1T=X−Xw1p1T=X(E−w1p1T){{X}_{1}}=X-{{t}_{1}}p_{1}^{T}=X-X{{w}_{1}}p_{1}^{T}=X(E-{{w}_{1}}p_{1}^{T})X1=Xt1p1T=XXw1p1T=X(Ew1p1T)
设在h=kh=kh=k时成立,则证h=k+1h=k+1h=k+1时也成立:
Xk+1=Xk−tk+1pk+1T=Xk−(Xkwk+1)pk+1T=Xk(E−wk+1pk+1T)=[X∏h=1k(E−whphT)](E−wk+1pk+1T)\begin{aligned} & {{X}_{k+1}}={{X}_{k}}-{{\color{red}{t}_{k+1}}}p_{k+1}^{T}={{X}_{k}}-{\color{red}({{X}_{k}}{{w}_{k+1}})}p_{k+1}^{T} \\ & \ \ \ \ \ \ \ ={{X}_{k}}(E-{{w}_{k+1}}p_{k+1}^{T}) \\ & \ \ \ \ \ \ \ =\left[ X\prod\limits_{h=1}^{k}{(E-{{w}_{h}}p_{h}^{T})} \right](E-{{w}_{k+1}}p_{k+1}^{T}) \\ \end{aligned} Xk+1=Xktk+1pk+1T=Xk(Xkwk+1)pk+1T       =Xk(Ewk+1pk+1T)       =[Xh=1k(EwhphT)](Ewk+1pk+1T)
则得证。
⑦任一成分th{{t}_{h}}th是原自变量XXX的线性组合即:
th=Xh−1wh=X∏k=1h−1(E−wkpkT)wh=Xwh∗{{t}_{h}}={{X}_{h-1}}{{w}_{h}}=X\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})}{{w}_{h}}=Xw_{h}^{*} th=Xh1wh=Xk=1h1(EwkpkT)wh=Xwh
其中
wh∗=∏k=1h−1(E−wkpkT)wh=wh∏k=1h−1(E−wkpkT)=wh{(E−w1p1T)(E−w2p2T)⋯(E−wh−1ph−1T)}\begin{aligned} & w_{h}^{*}=\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})}{{w}_{h}}={{w}_{h}}\prod\limits_{k=1}^{h-1}{(E-{{w}_{k}}p_{k}^{T})} \\ & ={{w}_{h}}\left\{ \left( E-{{w}_{1}}p_{1}^{T} \right)\left( E-{{w}_{2}}p_{2}^{T} \right)\ \ \cdots \left( E-{{w}_{h-1}}p_{h-1}^{T} \right)\ \right\} \\ \end{aligned} wh=k=1h1(EwkpkT)wh=whk=1h1(EwkpkT)=wh{(Ew1p1T)(Ew2p2T)  (Ewh1ph1T) }

EEE为单位矩阵。
【编程计算问题】
初始化chg=Echg=Echg=E
h=1 求w1∗=w1×(E−O)=w1×chgw_{1}^{*}={{w}_{1}}\times \left( E-O \right)={{w}_{1}}\times chgw1=w1×(EO)=w1×chg
h=2 chg发生变化,chg=chg×(E−w1p1T)chg=chg\times \left( E-{{w}_{1}}p_{1}^{T} \right)chg=chg×(Ew1p1T),求w2∗=w2×chgw_{2}^{*}={{w}_{2}}\times chgw2=w2×chg
h=3 chg发生变化,chg=chg×(E−w2p2T)chg=chg\times \left( E-{{w}_{2}}p_{2}^{T} \right)chg=chg×(Ew2p2T),求w3∗=w3×chgw_{3}^{*}={{w}_{3}}\times chgw3=w3×chg
以上证明过程(王惠文书有)。

Reference

王惠文.偏最小二乘方法原理及其应用
郭建校. 改进的高维非线性PLS回归方法及应用研究[D]. 天津大学, 2010.