UMBRELLA

未雨绸缪,举重若轻

PyTorch Lightning 是专业人工智能研究人员和机器学习工程师的深度学习框架。是一个batteries included的深度学习框架,适合需要最大灵活性同时大规模增强性能的专业人工智能研究人员和机器学习工程师。

阅读全文 »

NLP

自然语言处理(NLP):就是轻松教会计算机理解人类的语言,像阅读、回答问题、识别语音这些日常操作,都离不开他。这其中,有几大关键算法功不可没:

  • 词袋模型:像数豆子一样统计每个词出现的次数,虽然不考虑顺序,却能帮计算机快速分类文本情绪。
  • 循环神经网络(RNN):专门对付一连串信息,比如做翻译和预测下一句,只是对长句子力不从心。
  • 长短时记忆网络(LSTM):升级版的RNN,解决了记忆差的问题,擅长学习语言中的长距离关联。
  • 支持向量机(SVM):经典分类器,在区分不同类别文本上有一手。
  • 生成对抗网络(GAN):一边生成文本一边鉴别真伪。用于生成逼真的对话内容
  • 注意力机制:让模型懂得抓重点,像机器翻译和摘要提炼,就用上了这一招。
  • 预训练语言模型:BRET、GPT等明星模型先在海量文本里“修炼”,然后应用于各种场景。
  • Transformer:自注意力机制的核心,编码解码一手抓,翻译和生成任务轻松搞定。
    阅读全文 »

CNN与MLP的区别

CNNMLP的区别:

  • CNN(卷积神经网络):就像一个厉害的画家,它通过扫描局部特征(比如边缘、纹理)来识别图片。特备擅长看图说话,由“局部观察员”卷积层找到关键线索,接着用池化层浓缩信息,最后全连接层整合所有线索判断画中内容类别。CNN的强项在于处理图像和视频这类局部细节丰富的数据。
  • MLP(多层感知机):则仿佛是一位音乐大师,专注于倾听旋律与节奏的全局特征,从而识别音乐风格。MLP在处理文本和声音这类整体模式重要的数据时独具匠心。它的结构就像层层堆叠的乐团,每层神经元都跟前一层相连,共同构建复杂映射关系。总结一下,CNN是图像处理专家,专攻局部特征;MLP则是文本和音频的理解高手,聚焦全局特征。
    阅读全文 »

多模态融合

多模态融合是指将来自不同感知渠道(如图像、文本、语音、视频等)的数据信息整合起来,共同进行分析和理解的过程,传统的多模态融合方法可能无法有效地捕获跨模态之间的依赖关系,而Transformer通过自注意力机制可以灵活地捕捉到不同模态特征间的相关性,并且能够根据不同模态输入的重要性动态调整权重,实现高效的信息交互与融合。简答来说,就是将不同类型的数据“混合搅拌”,从而得到更丰富、更深入的信息。比如,把图片和文字放到一起,让机器自己找联系。在这个过程中,不同模态的数据就像是不同口味的食材,还能快速的烹饪出美味。它通过学习和转换不同模态的数据,让多模态融合变得更加简单、高效。未来,随着技术的进步,多模态融合将在更多领域大放异彩。

阅读全文 »

基于LSTM实现一个股票预测模型

这只是一个简单的例子,并未考虑很多实际问题,,例如特征选择、模型复杂度调整、超参数优化等。在真实环境中,股票价格受到多种因素影响,包括但不限于市场情绪、公司基本面、政策法规等,但纯依赖于历史价格进行预测可能效果有限。此代码并未包含模型验证和预测部分,实际应用中还需要对模型在测试集上的表现进行评估,并用模型对未来数据进行预测。股票预测模型通常是基于机器学习或深度学习技术,通过历史数据(如:开盘价、收盘价、最高价、最低价、交易量等)来预测未来的股价走势。这是一个非常基础的基于LSTM(长短期记忆网络)的股票预测模型实现。

阅读全文 »

指数移动平均

指数移动平均(EMA)就像一个会偏爱新信息的智能计算器,帮你更准确地算出数据变化的趋势。不同于简单的移动平均(SMA),它给最近的数据点更大话语权。每个时间节点上,新的EMA值是由当前数+以前EMA值按神秘权重阿尔法相加得出,这个权重一般在01之间浮动,越靠近现在,数据点的影响力越大。而在深度学习领域,EMA变成超能力助手,专门帮模型“记账”,追踪参数的平均值。训练时它能打造一个平滑版的权重集合,这对某些高级训练战术特管用,比如测试阶段用“影子”模型来稳稳预测。

阅读全文 »

模型压缩与知识蒸馏

模型压缩技术就像就像经验丰富的老师教学生的过程。大而复杂的教师模型已经学到了很多“知识”,包括不仅限于准确预测的能力,还包括对输入数据细微差别的敏感度。学生模型则相对简单,通过模仿教师模型的输出以及中间层特征分布来学习这些知识,这样即使学生模型结构简单、参数少,也能达到接近甚至超越教师模型的表现。模型压缩就像给模型做“断舍离”,它通过剪枝(丢掉不那么重要的参数)、量化(把复杂的数字变简单)、智能结构设计(NAS帮你找最优架构)和模块替换(换上高效的小部件),巧妙的缩小模型体积,还不影响表现力。

知识蒸馏则是师傅带徒弟的好戏。大而强的教师模型传授经验给小而精的学生模型,教会学生模仿自己识别图像、做决策的能力,结果小模型也能接近甚至超越师傅的水平,但体积却迷你的多。为什么这两种技术非常重要呢?

  • 资源效率UP:大大减少计算、存储和传输数据的需求,在手机,物联网设备这些地方超实用。
  • 实时响应GET:压缩后的模型推理速度更快,满足各种实时应用需求。
  • 理解力&适应性PLUS:只是蒸馏可以提炼关键特征,让模型更好解释且能更好应对新情况。
  • 轻松部署无压力:小模型轻轻松松在各种硬件平台上安家落户,尤其适合资源有限的环境。
    阅读全文 »

OpenAI Gym

OpenAI Gym就像一个智能游戏平台,帮你把复杂环境规则打包成一个易用接口。它就像这样:

  • ——> reset():一键重启游戏,返回新场景给AI
  • ——> step(action)AI选择动作,执行后,Gym会反馈:
    • 新鲜出炉的观测结果(就是新的游戏画面)
    • 动作带来的奖励分
    • 游戏是否过关
    • 还有额外的小贴士(info

简而言之,Gym简化了环境交互,让你专心训练AI算法,无需研究背后的实现。

阅读全文 »

模型的泛化能力

模型的泛化能力(generalization capability)是指一个机器学习和深度学习模型在未见过的新数据上的表现如何,即他能否有效地将从训练集学到的知识迁移到测试集或实际应用中去。如果一个模型对训练数据拟合的非常好,但在新的未知数据上表现糟糕,我们说这个模型过拟合了,它的泛化能力较弱;反之如果模型在保持训练数据良好拟合的同时,在新数据上也能保持较好的性能,则说明具有良好的泛化能力。下面的代码是通过一个基于PyTorch框架的简单线性回归模型示例来直观展示模型泛化能力的概念。

阅读全文 »

GPT与传统模型的区别

GPT之前,已经有多年的自然语言处理(NLP)研究和应用,但是传统的模型和方法往往面临一些挑战,例如大量标注数据的依赖、模型的可解释性较差,难以处理复杂的语义关系等。说人话就是得益于预训练无监督技术的发展。GPT获得无监督学习和零杨本学习能力主要依赖于预训练(Pre-training)技术。预训练技术一种通过对大量无标注文本数据(即无监督数据)进行学习,从而得到一种通用的语言表示能力的方法。在GPT中,预训练是预测给定前文(context)的下一个词(target)实现的,这是一个自回归任务(Autoregressive task)。通过在大量无标注文本数据上进行预训练,GPT可以学习到语言的语法、语义和上下文信息,从而具备了强大的语言生成和理解能力。

GPT的两样本学习能力来自于其预训练的通用性和微调(Fine-tuning)的能力。在微调阶段,可以将GPT用于具体的任务,例如文本分类、命名实体识别等,这通常需要在有标注的数据集上进行。通过微调,GPT可以在特定的任务上获得更好的性能,而不需要从头开始训练模型。这种微调过程类似于“迁移学习”,使得GPT可以在不同任务之间共享知识和经验,从而实现零样本学习。然而,以前没有这种技术的主要原因在于数据规模和计算资源的限制。无监督学习需要大量的无标注数据,而零样本学习需要模型具有强大的泛化能力。在GPT之前,由于数据规模较小和计算资源有限,很难训练出具有这样能力的模型。随着大数据和云计算的发展,现在可以训练出更大规模和更加强大的模型,这使得无监督学习和零样本学习成为可能。因此,GPT的出现标志着自然语言处理领域的一个重大突破。

阅读全文 »
0%