ChengLi Feng's Projects
Config files for my GitHub profile.
使用google albert 生成 句子向量
利用ALBERT和BI-LSTM,在Keras中实现序列标注算法。
A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS, 海量中文预训练ALBERT模型
2018/2019/校招/春招/秋招/自然语言处理(NLP)/深度学习(Deep Learning)/机器学习(Machine Learning)/C/C++/Python/面试笔记,此外,还包括创建者看到的所有机器学习/深度学习面经中的问题。 除了其中 DL/ML 相关的,其他与算法岗相关的计算机知识也会记录。 但是不会包括如前端/测试/JAVA/Android等岗位中有关的问题。
Speech Recognition with DFCNN and Transformer
1. ctc的DCNN声学模型+语言模型和 transformer的端到端模型
Automatic Speech Recognition with TensorFlow(CNN+BLSTM+CTC)
语音识别理论,包括研一与研二期间部分所学,论文和PPT
采用transformer end2end训练语音识别ASR
A Deep-Learning-Based Chinese Speech Recognition System 基于深度学习的中文语音识别系统
Awesome resources on normalizing flows.
用于从头预训练+SFT一个小参数量的中文LLaMa2的仓库;24G单卡即可运行得到一个具备简单中文问答能力的chat-llama2.
🔊 Text-prompted Generative Audio Model
TensorFlow code and pre-trained models for BERT
一行代码使用BERT生成句向量,BERT做文本分类、文本相似度计算
Pre-training of Deep Bidirectional Transformers for Language Understanding: pre-train TextCNN
使用keras实现的基于Bi-LSTM + CRF的中文分词+词性标注
Binance Smart Chain DeFi Wallet by Trading-Tigers.com
A Large-scale Chinese Short-Text Conversation Dataset and Chinese pre-training dialog models
An RNN-based Chinese Poem Generator
Chinese text normalization for speech processing
NLP的数据增强Demo
深度学习500问,以问答形式对常用的概率知识、线性代数、机器学习、深度学习、计算机视觉等热点问题进行阐述,以帮助自己及有需要的读者。 全书分为15个章节,近20万字。由于水平有限,书中不妥之处恳请广大读者批评指正。 未完待续............ 如有意合作,联系[email protected] 版权所有,违权必究 Tan 2018.06