您选择的条件: 2020-06-16
  • 基于即时反馈的反应抑制训练对青少年和成人执行功能的训练效应和迁移效应

    分类: 心理学 >> 发展心理学 提交时间: 2020-06-16

    摘要: 本研究以基于即时反馈的Stop Signal范式为训练任务,考察3周训练是否对青少年和成人的执行功能产生训练效应和迁移效应。发现青少年、成人实验组和积极控制组都出现了训练效应。两个实验组均产生了对反应抑制Go/No-go任务的迁移效应;但只有青少年实验组出现了对干扰抑制Stroop任务的迁移效应。成人实验组和积极控制组都出现了对2-back任务的迁移效应;但只有青少年实验组出现了在2-和3-back任务上的迁移效应。所有组别都未能出现对推理能力的迁移。研究证明从青春期到成年期,基于即时反馈的反应抑制训练能够对执行功能产生训练和迁移效应,但迁移仅限于抑制和工作记忆等基础成分,无法改善推理能力。

  • theta频段反映了音节编码过程

    分类: 心理学 >> 认知心理学 提交时间: 2020-06-16

    摘要: 大脑的神经振荡往往反映了人类的各种认知活动。语言理解的研究发现大脑θ频段的活动与音节的加工密切相关,但目前尚未有研究者探究语言产生过程中大脑特定频段活动与音节加工的联系。我们通过EEG时频分析技术,采用掩蔽启动范式,考察了23名健康被试在图片命名过程中θ频段的活动与音节加工过程的关系。行为结果发现,当启动词和目标图名称之间存在音节相关时,个体的命名反应时快于音节无关的条件,而音素相关条件的命名反应时慢于音素无关条件。时频结果发现,在刺激出现后的270~460 ms,音节相关条件下个体θ频段神经振荡的能量显著低于音节无关条件,音素相关与音素无关之间无显著差异。综上,我们认为汉语口语产生中大脑θ频段的活动反映了对音节的加工,从神经振荡指标上为音节是汉语口语词汇产生中音韵编码的单元提供了证据。

  • DEED: A general quantization scheme for saving bits in communication

    分类: 数学 >> 控制和优化 提交时间: 2020-06-16

    摘要: Quantization is a popular technique to reduce communication in distributed optimization. Motivated by the classical work on inexact gradient descent (GD) \cite{bertsekas2000gradient}, we provide a general convergence analysis framework for inexact GD that is tailored for quantization schemes. We also propose a quantization scheme Double Encoding and Error Diminishing (DEED). DEED can achieve small communication complexity in three settings: frequent-communication large-memory, frequent-communication small-memory, and infrequent-communication (e.g. federated learning). More specifically, in the frequent-communication large-memory setting, DEED can be easily combined with Nesterov's method, so that the total number of bits required is $ \tilde{O}( \sqrt{\kappa} \log 1/\epsilon )$, where $\tilde{O}$ hides numerical constant and $\log \kappa $ factors. In the frequent-communication small-memory setting, DEED combined with SGD only requires $\tilde{O}( \kappa \log 1/\epsilon)$ number of bits in the interpolation regime. In the infrequent communication setting, DEED combined with Federated averaging requires a smaller total number of bits than Federated Averaging. All these algorithms converge at the same rate as their non-quantized versions, while using a smaller number of bits.