结构方程模型的种类协方差结构方程和最小二乘法
本篇文章介绍了结构方程模型的两种算法, 一个是基于协方差矩阵的结构方程模型, 简称CB-SEM, 一个是基于最小二乘法的结构方程模型, 简称PLS-SEM, CB-SEM的代表软件是AMOS、MPLUS, PLS-SEM的代表软件是martpls。
本篇文章介绍两种结构方程模型的不同之处, 并在最后附有视频教程。
本篇文章介绍了结构方程模型的两种算法, 一个是基于协方差矩阵的结构方程模型, 简称CB-SEM, 一个是基于最小二乘法的结构方程模型, 简称PLS-SEM, CB-SEM的代表软件是AMOS、MPLUS, PLS-SEM的代表软件是martpls。
本篇文章介绍两种结构方程模型的不同之处, 并在最后附有视频教程。
我们今天介绍一个软件是用来做声音克隆的, 比如你可以将你的声音克隆下来, 然后将一段任何其他人的录音转换成你的声音。
这个工具的全称是“SoftVC VITS Singing Voice Conversion Fork”, 简称为“so-vits-svc”。
我们今天网上看到的很多孙燕姿AI都是这种方法制作的。 我用我自己的声音制作了一段“蜜雪冰城”主题曲, 你可以听下像不像我的声音。
为了让结构方程模型(SEM)具有良好的拟合,我们往往对因子载荷有一个最低要求, 但是最低多少呢, 并没有严格的标准, 我搜索了全网,找到一些参考的值,大家可以看看,参考文献在最下面。
如何汇报pls-sem (Partial Least Square Structural Equation Modeling)的结果, 很多刚入门的学生都会有疑问,
因为它不像一般的统计方法, 只有一两个指标看需要汇报,
sem的结果有很多,而pls-sem又与cb-sem(Covariance Based Structural Equation Modeling)不同,使得汇报sem的结果比较困难,
也很容易遗漏重要信息。
所以我认为有必要写一篇文章, 总结一下pls-sem的汇报规范, 并且我们提供了案例方便大家效仿。
SPSS的Process做完调节效应分析以后, 给我们输出了一段代码帮助我们做简单斜率的图,
但是使用spss绘制简单斜率呢比较丑,所以我们做了一个便捷的工具, 可以帮助你快速绘制简单斜率图。
这个工具用于可视化简单效应图,
并且主要用于spss的process插件所产生的可视化数据。
在文章最后还提供了使用Excel绘图的方法,并且提供了Excel绘图模板,支持一键绘图,非常简单。
GLASSO(Graphical LASSO)网络分析模型。
GLASSO模型是一种估计稠密高维协方差矩阵的方法,可以用于构建变量之间的相关关系网络,以及对网络中的变量进行选择和筛选。
GLASSO模型的目标是通过最小化L1正则化的对数似然函数,同时惩罚协方差矩阵中的非零项,从而产生一个稀疏的估计矩阵。这个稀疏的矩阵可以用来表示变量之间的相关性,也可以用来筛选出最相关的变量。
GLASSO模型在机器学习、统计学、生物信息学等领域中得到了广泛的应用,特别是在处理高维数据时。
多层线性模型(Hierarchical Linear Model, HLM) 是一种线性回归模型,
其中包括一组低层回归模型,以及一个高层回归模型。
低层模型预测每个观察单位的响应变量,而高层模型对低层模型的回归系数进行建模,
从而对其他观察单位的回归系数进行预测。
HLM可以用于探究不同单位间的关系,并且可以处理嵌套数据(例如,学生在不同班级的数据)的情况。
这篇文章列出了James开发的$r_{wg}$
( the inter-rater agreement index) 这个指标的计算方法,
$r_{wg}$是用于评估评分者内部一致性(inter-rater agreement index)的指标,
然后,我们给出了ICC ( intraclass correlation coefficients ) 的计算公式及其解释,
Intraclass相关系数(ICC):这是一种用于评估评分者内部一致性的常用指标,可以考虑到评分者与评分者之间的关系。
我们会先列出公式, 然后解释公式, 最后给出计算的工具。
APIM是 Actor-Partner Interdependence Model 的简称,
下图是用于表示APIM的常用概念图, 今天我们将要从介绍概念开始,
带你理解APIM及其使用条件, 然后使用mplus做APIM的分析,
如果你没有学习过mplus, 不用担心, 我们尽量让教程保持简单, 适合刚入门的学生。
在本文中,我想讨论一下基于 Transformer 神经网络的代码细节,
因为很多人看了Transformer的理论架构以后还是云里雾里的,
所以你必须了解代码细节才能更深入的掌握Transformer架构。
这个架构是在这篇文章中提出《Attention Is All You Need》, 由Ashish Vaswani等人撰写。
Transformer已经有代码实现, 我已经在参考部分列出了其中一些。在阅读这些源代码时,我学习了一些技巧,这些技巧并未写在论文中,
所以我们想专门写一篇教程来介绍代码细节。