UMBRELLA

未雨绸缪,举重若轻

该数据集包含从UCF犯罪数据集中的每个视频中提取的图像。,用于监控视频中的真实世界—异常检测。提取每10帧长度的视频,并将其合并到该分类中。所有图片尺寸为64*64,格式为.png。该数据集共有14个类别(1. Abuse 、2. Arrest、3. Arson、4. Assault、5. Burglary、6. Explosion、7. Fighting、8. Normal Videos、9. RoadAccidents、10. Robbery、11. Shooting、12. Shoplifting、13. Stealing、14. Vandalism)。

阅读全文 »

该数据集包含35,68548x48像素灰度图像的示例,分为训练数据集和测试数据集。根据面部表情中显示的情绪对图像进行分类(快乐、中性、悲伤、愤怒、惊讶、厌恶、恐惧)。

阅读全文 »

Mask R-CNN方法可以有效地检测图片中的物体,同时为每个实例生成高质量的分割掩模。通过添加一个用于与现有的边界框识别分支并行预测对象掩模的分支来扩展Faster R-CNNMask R-CNN训练起来很简单,只给Faster R-CNN增加了很小的开销,运行速度为5fps。此外Mask R-CNN很容易推广到其他任务。下面有一个实例:”检测显微镜图像中的单个神经元细胞“。

阅读全文 »

DETR (Detection Transformer)

物体检测是一个不仅复杂而且计算成本较高的问题。《Attention is all you need》,是Transformers的论文,推动了了NLP的发展,并且达到了很高的高度。虽然主要是为NLP开发的,但围绕它的最新研究重点是如何在深度学习的不同垂直领域利用它。Transformer架构非常非常强大,这就是我有动力探索使用Transformer的原因。Detection Transformer利用Transformer网络(编码器和解码器)来检测图片中的物体。Facebook的研究人员认为,对于物体检测,图片的一部分应该与图片的另一部分接触以获得更好的结果,特别是对于被遮挡的物体和部分可见的物体,这比使用Transformer更好。DETR背后的主要动机是有效地消除对许多手工设计组件的需求,例如非极大值抑制过程或锚点生成,这些组件显式编码有关任务的先验知识,并使过程变得复杂且计算成本高昂。新框架的主要组成名为DEtection TRansformerDETR,是基于集合的全局损失,通过二分匹配强制进行的预测,以及Transformer编码器-解码器架构。

阅读全文 »

介绍

我使用CNN对脑肿瘤数据集执行图像分类。由于这个数据集很小,如果我们对其训练神经网络,它不会真正给我们带来好的结果。因此,我将使用迁移学习的概念来训练模型以获得真正准确的结果。

阅读全文 »

混合专家模型 Mixture of Experts (MoE)

混合专家模型(MoE)是一种机器学习技术,其中使用多个专家网络(学习者)将问题空间划分为同质区域混合专家模型(MoE)的一个显著优势是它们能够在远少于稠密模型所需的计算资源下进行有效的预训练。这意味着在相同的计算预算条件下,可以显著扩大模型或数据集的规模。特别是在预训练阶段,与稠密模型相比,混合专家模型通常能够更快地达到相同的质量水平。

阅读全文 »

AI的发展方向我们认为主要有两个:一个是有趣、亲和、更像人的AI;另一个是有用、严谨、更像工具的AIAI更像工具还是更像人呢?其实有很多争议。就技术的发展阶段来说:目前很长一段时间应该是”更像工具的AI“,未来的某个时间节点会朝着”更像人的AI“方向发展。

阅读全文 »

介绍

数据集包含25,000张狗和猫的图片。此数据集中的每个图片都有标签作为文件名的一部分。测试文件夹包含12,500张图片,根据数字ID命名。对于测试集中的每个图片,您应该预测该图片是狗/猫的概率(1 = 狗,0 = 猫)。为了解决这个问题,我们将使用预训练模型ResNet-50,仅替换最后一层。

阅读全文 »
0%