视频异常监测(TensorFlow)
该数据集包含从UCF
犯罪数据集中的每个视频中提取的图像。,用于监控视频中的真实世界—异常检测。提取每10
帧长度的视频,并将其合并到该分类中。所有图片尺寸为64*64
,格式为.png
。该数据集共有14
个类别(1. Abuse 、2. Arrest、3. Arson、4. Assault、5. Burglary、6. Explosion、7. Fighting、8. Normal Videos、9. RoadAccidents、10. Robbery、11. Shooting、12. Shoplifting、13. Stealing、14. Vandalism
)。
情绪检测(TensorFlow)
该数据集包含35,685
个48x48
像素灰度图像的示例,分为训练数据集和测试数据集。根据面部表情中显示的情绪对图像进行分类(快乐、中性、悲伤、愤怒、惊讶、厌恶、恐惧)。
Mask R-CNN(PyTorch)
Mask R-CNN
方法可以有效地检测图片中的物体,同时为每个实例生成高质量的分割掩模。通过添加一个用于与现有的边界框识别分支并行预测对象掩模的分支来扩展Faster R-CNN
。Mask R-CNN
训练起来很简单,只给Faster R-CNN
增加了很小的开销,运行速度为5fps
。此外Mask R-CNN
很容易推广到其他任务。下面有一个实例:”检测显微镜图像中的单个神经元细胞“。
利用Transformer(DETR)进行端到端的物体监测
DETR (Detection Transformer)
物体检测是一个不仅复杂而且计算成本较高的问题。《Attention is all you need
》,是Transformers
的论文,推动了了NLP
的发展,并且达到了很高的高度。虽然主要是为NLP
开发的,但围绕它的最新研究重点是如何在深度学习的不同垂直领域利用它。Transformer
架构非常非常强大,这就是我有动力探索使用Transformer
的原因。Detection Transformer
利用Transformer
网络(编码器和解码器)来检测图片中的物体。Facebook
的研究人员认为,对于物体检测,图片的一部分应该与图片的另一部分接触以获得更好的结果,特别是对于被遮挡的物体和部分可见的物体,这比使用Transformer
更好。DETR
背后的主要动机是有效地消除对许多手工设计组件的需求,例如非极大值抑制过程或锚点生成,这些组件显式编码有关任务的先验知识,并使过程变得复杂且计算成本高昂。新框架的主要组成名为DEtection TRansformer
或DETR
,是基于集合的全局损失,通过二分匹配强制进行的预测,以及Transformer
编码器-解码器架构。
机器学习模型 — 介绍
AI Agent — 思考
AI
的发展方向我们认为主要有两个:一个是有趣、亲和、更像人的AI
;另一个是有用、严谨、更像工具的AI
。AI
更像工具还是更像人呢?其实有很多争议。就技术的发展阶段来说:目前很长一段时间应该是”更像工具的AI
“,未来的某个时间节点会朝着”更像人的AI
“方向发展。