B. Shen's Projects
NUIST WIFI Login
BERT-related papers
🛠️ Tools for Transformers compression using PyTorch Lightning ⚡
Source code for 100+ books, kept here for quick reference
Calculator in different languages. c++, c# now available.
中文自然语言处理数据集,平时做做实验的材料。欢迎补充提交合并。
CKIP Neural Chinese Word Segmentation, POS Tagging, and NER
[EMNLP 2022] COST-EFF: Collaborative Optimization of Spatial and Temporal Efficiency with Slenderized Multi-exit Language Models
Code and note for Course C#, NUIST
Code and note for the course Digital Image Processing, NUIST
Code and note for the course Java
Code and notes for course Web tech
计算机自学指南
CSAPP,《深入理解计算机系统结构》2nd ,阅读与实践!
Labs of CSAPP
北京 青年大学习 使用Github Actions自动完成
DeeBERT: Dynamic Early Exiting for Accelerating BERT Inference
DeepSpeed is a deep learning optimization library that makes distributed training and inference easy, efficient, and effective.
deno manual 中文翻译
Implementation of DiffusionBERT: Improving Generative Masked Language Models with Diffusion Models
Diffusion-LM
Compilers Principles, Techniques, & Tools (purple dragon book) second edition exercise answers. 编译原理(紫龙书)第2版习题答案。
随着移动云计算和边缘计算的快速发展,以及人工智能的广泛应用,产生了边缘智能(Edge Intelligence)的概念。深度神经网络(例如CNN)已被广泛应用于移动智能应用程序中,但是移动设备有限的存储和计算资源无法满足深度神经网络计算的需求。神经网络压缩与加速技术可以加速神经网络的计算,例如剪枝、量化、卷积核分解等。但是这些技术在实际应用非常复杂,并且可能导致模型精度的下降。在移动云计算或边缘计算中,任务卸载技术可以突破移动终端的资源限制,减轻移动设备的计算负载并提高任务处理效率。通过任务卸载技术优化深度神经网络成为边缘智能研究中的新方向。Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge这篇文章提出了协同推断的**,将深度神经网络进行分区,一部分层在移动端计算,而另一部分在云端计算。根据硬件平台、无线网络以及服务器负载等因素实现动态分区,降低时延以及能耗。本项目给出了边缘智能方面的相关论文,并且给出了一个Python语言实现的卷积神经网络协同推断实验平台。关键词:边缘智能(Edge Intelligence),计算卸载(Computing Offloading),CNN模型分区(CNN Partition),协同推断(Collaborative Inference),移动云计算(Mobile Cloud Computing)
作业批量改名 + 提交情况统计
中文分词 词性标注 命名实体识别 依存句法分析 语义依存分析 新词发现 关键词短语提取 自动摘要 文本分类聚类 拼音简繁转换 自然语言处理
C++ course design