吴念真
真是喜欢这个人。
故事讲得那么好,寻常文字却字字动人。
电影演得那么好,就像在演自己。
希望你们也喜欢这个人,希望你们有时间的时候拿他的东西来读来看。
没有道理的。他不讲道理的。只是去读就好。
小编乱入
▼
思念
文
吴念真
小学二年级的孩子好像很喜欢邻座那个长头发的女孩,常常提起她。每次一讲到她的种种琐事时,你都可以看到他眼睛发亮,开心到藏不住笑容的样子。
他的爸妈都不忍心说破,因为他们知道不经意的玩笑都可能给这年纪的孩子带来巨大的羞怒,甚至因此而阻断了他人生中第一次对异性那么单纯而洁净的思慕。
双方家长在校庆时孩子们的表演场合里见了面;女孩的妈妈说女儿也常常提起男孩的名字,而他们也有一样的默契,从不说破。
女孩气管不好,常感冒咳嗽,老师有一天在联络簿上写说:邻座的女生感冒了,只要她一咳嗽,孩子就皱着眉头盯着她看,问他说是不是咳嗽的声音让你觉得烦?没想到孩子却说:不是,她咳得好辛苦哦,我好想替她咳!
老师最后写道:我觉得好丢脸,竟然用大人那么自私的想法去污蔑一个孩子那么善良的心意。
爸妈喜欢听他讲那女孩子点点滴滴,因为从他的描述里仿佛也看到了孩子们那么自在、无邪的互动。
“我知道为什么她写的字那么小,我写的这么大,因为她的手好小,小到我可以把它整个包——起来哦!”
爸妈于是想着孩子们细嫩的双手紧紧握在一起的样子,以及他们当时的笑容。
“她耳朵有长毛耶,亮晶晶的,好好玩!”
爸妈知道,那是下午的阳光照进教室,照在女孩的身上,女孩耳轮上的汗毛逆着光线于是清晰可见;孩子简单的描述中,其实有无比深情的凝视。
三年级上学期的某一天,女孩的妈妈打电话来,说他们要移民去加拿大。
“我不知道孩子们会不会遗憾……”女孩的妈妈说,“如果有,我会觉得好罪过……”
没想到孩子的反应倒出乎他们预料之外的平淡。
有一天下课后,孩子连书包也没放就直接冲进书房,搬下世界旅游的画册便坐在地板上翻阅起来。
爸爸问他说:你在找什么?孩子头也不抬地说:我在找加拿大的多伦多有什么,因为XXX她们要搬家去那里!
画册没翻几页,孩子忽然就大笑起来,然后跑去客厅抓起电话打,拨号的时候还是一边忍不住地笑;之后爸爸听见他跟电话那一端的女孩说:你知道多伦多附近有什么吗?哈哈,有破布耶……真的,书上写的,你听哦……“你家那块破布是世界上最大的破布”,哈哈哈……骗你的啦……它是说尼加拉瓜瀑布是世界上最大的瀑布啦……哈哈哈。
孩子要是有遗憾、有不舍,爸妈心里有准备,他们知道唯一能做的事情叫“陪伴”。
后来女孩走了,孩子的日子寻常过,和那女孩相关的连结好像只有他书桌上那张女孩的妈妈手写的英文地址。
寒假前一个冬阳温润的*昏,放学的孩子从巴士上下来时神情和姿态都有点奇怪。他满脸通红、眼睛发亮,右手的食指和拇指好像捏着什么无形的东西,快步地跑向在门口等候的爸爸。
“爸爸,她的头发耶!”孩子一走近便把右手朝爸爸的脸靠近,说,“你看,是XX的头发耶!”
这时爸爸才清楚地看到孩子两指之间捏着的是三两条长长的发丝。
“我们大扫除,椅子都要翻上来……我看到木头缝里有头发……”孩子讲得既兴奋又急促,“一定是XX以前夹到的,你说是不是?”
“你……要留下来做纪念吗?”爸爸问。
孩子忽然安静下来,然后用力地、不断地摇着头,但爸爸看到他的眼睛慢慢冒出不知忍了多久的眼泪。他用力地抱着爸爸的腰,把脸贴在爸爸的胸口上,忘情地嚎啕大哭起来,而手指却依然紧捏着那几条正映着夕阳的余光在微风里轻轻飘动的发丝。
END
最后送上
刷福图
瑞狗刷福考神眷顾
戊戌一年当不苟活
预览时标签不可点收录于话题#个上一篇下一篇多任务学习(Multi-TaskLearning/MTL),有时候也称为:联合学习(jointlearning)、自主学习(learningtolearn)、辅助任务学习(learningwithauxiliarytasks)。大多数机器学习模型都是独立对一个任务进行学习的,而多任务学习则是将多个相关任务放在一起进行学习。从损失函数角度来说,只要优化的是多个损失函数,则就是在进行多任务学习。多任务学习的目标是,通过利用相关任务的训练信号中包含的特定领域信息来提高泛化能力。当前多任务学习的研究,主要集中在两个方面:模型结构和loss优化。对比于单任务学习,多任务学习有不少优点,下面从多任务学习的动机和有效性来进行阐述。
多任务学习动机从生物学上讲,可以把MTL看作是受到人类学习的启发,在学习新任务时,人类通常会使用在其他相关任务上学来的知识。MTL避免重复计算共享层中的特征,既减少了内存的占用,也大大提高了推断速度。单任务学习每个特定任务都需要大量带标签数据,MTL提供了一种有效的方法,来利用相关任务的监督数据。多任务学习通过缓解对某一任务的多度拟合而获得正则化效果,从而使所学的表征在任务间具有通用性。为什么有效?每一个任务数据都有噪音,模型只学习一个任务容易在该任务上过拟合,而学习多个任务可以使模型通过平均噪声的方式获得更好的表示。如果一个任务非常嘈杂,或者数据有限且高维,那么模型将很难区分相关和不相关的特征。MTL可以帮助模型将注意力集中在那些真正重要的特性上,因为其他任务将为这些特性的相关性或不相关性提供额外的证据。对某个任务B来说,特征G比较容易学到,但对另外的任务A则比较难学到。可能因为任务A与特征G的交互比较复杂,或者其他特征阻碍了模型学习特征G的能力。这个时候,使用MTL,可以通过任务B来学习到特征G。MTL使模型偏向于所有任务都偏向的特征,这有助于推广到新的任务,因为特征在足够多的训练任务中表现良好,也会在新任务上表现良好,只要它们来自相同的环境。MTL通过引入归纳偏差来当做正则化,降低过拟合风险。模型结构如下图所示,深度学习中的多任务学习模型结构主要分为三种:硬共享模式、软共享模式和共享-私有模式。
硬共享模式从年开始,硬参数共享就是神经网络MTL中最常用的方法。如上图a所示,它通常在所有任务之间共享隐藏层,同时保留几个特定任务的输出层。硬参数共享可以大大降低了过拟合的风险。
软共享模式如上图b所示,在软共享模式中,每个任务都有自己的模型和参数,对模型参数之间的距离进行正则化,从而使参数趋于相似。
共享-私有模式如上图c所示,共享-私有模式,通过设置外部记忆共享机制来实现在所有任务上的信息共享。该模式有个优点,可以避免在共享路径上传递负迁移的信息,这些信息对另外的任务有损害。
loss优化以最经典的硬共享模式为例,来分析下多任务学习的loss,最简单的方式就是多个任务的loss直接相加,就得到整体的loss,那么loss函数为:
其中
表示第i个任务的loss。这种方式非常简单,但不合理之处也比较明显,不同的任务loss的量级不同,这可能导致多任务的学习被某个任务所主导或学偏。所以我们对loss函数进行简单的调整,为每一个任务的loss添加一个权重参数,则整体loss函数变为:
其中
表示第i个任务的权重。相对于loss直接相加的方法,这种方式可以让我们调整每个任务的重要性程度,但仍然存在一些问题,因为不同的任务学习的难易程度不同,且不同的任务处于的学习阶段不同,比如某个任务接近收敛,而某个任务还没训练好,这样固定的权重就会限制任务的学习。所以在多任务学习中,还可以使用动态的加权方式,loss的权重会根据任务的学习阶段、学习的难易程度甚至是学习的效果来进行调整,这时,整体loss函数变为:
表示第t步时,任务i的权重值,关于动态权重的选择方式,可以参考以下方式:
GradientNormalization——梯度标准化DynamicWeightAveraging——动态加权平均DynamicTaskPrioritization——动态任务优先级UncertaintyWeighting——不确定性加权当然除此之外,还有研究人员将MTL视为多目标优化问题,总体目标是在所有任务中找到一个帕累托最优解,具体可参考论文。
比赛项目分析赛题背景本次比赛是CLUE与阿里云平台、乐言科技联合发起的第一场针对中文预训练模型泛化能力的挑战赛。
赛题以自然语言处理为背景,要求选手通过算法实现泛化能力强的中文预训练模型。通过这道赛题可以引导大家更好地理解预训练模型的运作机制,探索深层次的模型构建和模型训练,而不仅仅是针对特定任务进行简单微调。
比赛