Giter Site home page Giter Site logo

tgz0514 / tensorflow-yolo1 Goto Github PK

View Code? Open in Web Editor NEW

This project forked from lesliezhoa/tensorflow-yolo1

0.0 0.0 0.0 2.27 MB

目标检测yolo算法,采用tensorflow框架编写,中文注释完全,含测试和训练,支持摄像头

Python 100.00%

tensorflow-yolo1's Introduction

tensorflow-YOLO1

目标检测yolo算法,采用tensorflow框架编写,中文注释完全,含测试和训练,支持摄像头

模型简介

yolo v1

yolo1是端对端的目标检测模型,参考论文为You Only Look Once:Unified, Real-Time Object Detection
主要**是将图片分割成cell_size * cell_size的格子,每个格子里只包含一个目标,通过网络来输出每个格子的目标值,其中判断格子中是否有目标即判断目标中心点是否在对应格子中。
模型大致结构图如下:

模型经过多层卷积和全连接层,将图片最终输出尺寸为[batch,cell_size * cell_size * (num_classes+ box_per_cell* 5)]。
简单介绍一下输出的表示:
通过reshape分成[batch,cell_size,cell_size,num_classes]表示每个格子对应的类别;

[batch_,cell_size,cell_size,box_per_cell]表示每个格子中是否存在目标的置信度,之所以选择两个box_per_cell是为了让预测精度更准确,通俗来讲就是三个臭皮匠顶一个诸葛亮;

[batch,cell_size,cell_size,box_per_cell,4]表示每个格子每个选框中的目标框的坐标值,4个值分别为目标图片的中心横纵坐标偏移值x,y,目标图片的长宽w,h,但都经过一定归一化处理。x,y是相对于格子的偏移量经过了除以整个图片大小的归一化。

举例说明:

就是原图目标的中心坐标是x1,y1,原图宽高分别为w1,h1假设目标中心坐落在下标为[0,1]的格子里,即int(x1/image_size* cell_size),int(y1/image_size* cell_size)=0,1,此时对应格子的目标置信度应该都为1,x和y应该是相对于[0,1]这个格子的偏移量,具体算法是:x=x1/image_size* cell_size-0,y=y1/image_size* cell_size-1。

w,h也进行归一化但还要开方,具体算法为:w=square(w1/image_size),h=square(h1/image_size),归一化可以把数值指定在一定范围有利于训练,把w,h开方,是因为w,h的值不同于x,y是格子的偏移量限定于一定区间,w,h是针对整个图片而言,变化没那么平缓,所以进行开方。

真实训练数据也按上述方法来处理,只不过刚开始的shape是[cell_size,cell_size,4]然后将它reshape成[cell_size,cell_size,1,4]再复制成[batch,cell_size,cell_size,box_per_cell,4]

关于损失函数计算有目标损失,无目标损失,类别损失,目标框损失,占比不同,实际显示图片要加上非极大值抑制,把两个很相近的目标框只保留置信度高的。

yolo v2

关于yolo v2 网上博客大致内容介绍很详细,可以参考论文YOLO9000: Better, Faster, Stronger
我主要介绍它的训练数据长什么样,这也是困扰我好久的。yolo v2 加了anchor box为上述每个格子提供多个目标的可能,真实值的目标要与anchor box计算iou值,大于阈值才保留,否则保留iou值最大的目标,这样label的shape就变成了[batch, cell_size, cell_size, N_ANCHORS, num_clsses+5],相关坐标x,y,w,h和yolo1处理方式也些许不同,感兴趣的同学可以去参考论文。

代码介绍

代码只针对于yolo1的训练和测试

环境说明:

主要环境配置为:
ubuntu 16.04
python 3.5.5
tensorflow 1.4.1
opencv 3.4.1
不知道windows可不可以,应该没问题

下载数据

训练数据下载VOC解压放置到data目录下,预训练模型放置到data目录下

代码介绍

data下放置训练数据和预训练模型和将数据生成的tfrecords文件
graph保存训练过程中的训练集和验证集的graph
model保存训练的最优model
output是测试图片保存目录
picture是测试图片放置目录
utils包括配置文件config,模型文件model,数据处理文件psscal_voc
image_test.py是判断生成tfrecords文件是否图片标注正确
test.py是测试文件
tfrecord.py是将数据处理成tfrecords格式
train.py是训练文件

运行

首先可以手动修改config配置文件
若要训练的话:
运行python tfrecord.py 生成数据
运行python train.py 训练数据

若要测试:
把自己喜欢图片放到picture内,本代码图片来源于百度图片
查看代码,确定你进行测试要使用的model,运行test.py
本测试代码支持摄像头

建议

建议下载预训练模型训练,训练次数不宜过长,否则过拟合很严重
本代码只保存验证集上的最优模型
代码参考hizhangp
如有错误还请多多指正

结果展示




tensorflow-yolo1's People

Contributors

lesliezhoa avatar

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.