Giter VIP home page Giter VIP logo

realguoshuai / hadoop_study Goto Github PK

View Code? Open in Web Editor NEW
915.0 40.0 259.0 214.46 MB

定期更新Hadoop生态圈中常用大数据组件文档 重心依次为: Flink Solr Sparksql ES Scala Kafka Hbase/phoenix Redis Kerberos (项目包含hadoop思维导图 印象笔记 Scala版本简单demo 常用工具类 去敏后的train code 持续更新!!!)

Groovy 0.27% XSLT 18.67% CSS 0.50% JavaScript 1.00% TeX 0.08% HTML 0.22% Batchfile 0.05% Shell 0.60% Java 60.96% Scala 17.66%
hadoop java

hadoop_study's Introduction

image

hadoop

hadoop 导图笔记

SQL

hive

Scala

Spark

SparkSQL

Spark Structured Streaming

  • 后台我已经使用flink替代掉

Flink

Flink项目

Flink-1.10

Flink-1.14

FlinkX

 有计划尝试下袋鼠云开源的FlinkX

HBase(phoenix)

kafka

redis

lucene

solr

Eleasticsearch

ClickHouse

Kylin

  • TODO

kerberos

  • 印象笔记
  • 主要分为人机/机机认证,大数据环境安装kerberos认证后,所有组件互通都需要互相认证,对开发有不小挑战
  • 2019-5-5 更新 Fusioninsigh下的所有组件互通已经调试好

springboot

  • 示例模板
  • 大数据开发,有能力的还是要学一下,数据服务化不求人(个人感觉,关于Solr和Es部分,服务化如果交给应用层开发,查询语句可能没有优化,用户体验会很差)
  • 已经实现了solr和es对上层提供的rest接口,直接跟前端对接
  • 新增接口中调用执行sh脚本服务

jvm

数据服务化

将全文检索,离线或实时统计出来的数据,通过后台接口->dubbo(可省略)->rest服务化.

机器学习

leetcode

Python

面试

持续更新...

  • 会不定期的将在工作中接触大数据组件时做的去敏测试代码上传到对应的文件夹下供初学者参考,少走弯路 包括自己每天更新的大数据印象笔记 更新的进度和规划在issues 中
  • 今年(19)计划重心是在实时计算上Flink,下半年的规划 : sparksql或flinksql flinksql推荐使用1.7.0+
  • 最新工作 : Solr出现问题(从存量50亿查当天数据,晚上查询30-50s,早上2s),50亿数据,查一天的最后一页,内存一下满了导致的(最后一页用户非得留着),参数配置修改为2w条
  • 警情地址匹配经纬度用到了jieba分词,需要自定词库+solr(已实现服务化,代码测试去敏后上传)
  • es+kerberos https证书卡着了(已解决,需要用华为二次开发的jar),先将DSL语法熟悉下上传
  • 这两天调试spark同步hive到es程序,es是kerberos安全认证的,网上的都是http的方式访问,难受,最终使用jdbc的方式在安全模式的集群下从hive读数据到es ok 断断续续优化的flink程序 加入rebalance,解决数据倾斜,导致背压,优化背压 对过车时间进行取余处理进行分流... 最终发现优化需要减操作步骤 而不是增加!! 跑了两天 离线程序白天还在跑导致CPU负载很高 实时计算程序和Solr查询速度受到影响
  • 优化实时计算代码(代码开发很简单,数据量一上来就算不过来) 原因:内存隔离 CPU共享 50亿+solr 查询导致集群CPU负载高
  • solr分库后 高CPU的现象解决 遗留问题:程序定时删除出bug
  • 最近任务 开始 es 服务化 替代现有的solr 一天初步搞定
  • 测试flink table api ok,公司使用Flink DataStream/Process Function API开发 开发稍微有点复杂, 有时间会尝试使用table/sql api进行替换 简化开发难度.
  • 近期 写Flink sink工具类,实现实时ETL秒级入库,现在仍是window+sink有时延 ok完成,Per模式运行,总共占用5G内存 稳定运行一周
  • 实时计算NC市几千条路段的实时拥堵指数,flink程序优化中,更新先停2天.
  • 最近晚上计划学点spark DataFrame,需要熟悉下批处理 在大数据平台的周报表上练手19.11
  • 最近接手这个事故接口一直变,增加到32个了
  • 实时计算-将中间计算结果保存在状态中,之前想的是放到redis里,页面程序可以直接获取,但是job数一多,对redis会造成过大的压力,所以使用状态保存,需要的结 果一起发送到kafka,测试两天 稳定运行(注:flink1.4.0不能设置state的过期时间,程序中逻辑处理(每天清空);1.6.0引入ttl)
  • spark统计全市/路段/区域 流量/拥堵 (完成) 完善Lambda架构,做成新增配置重算历史数据sh
  • 使用springboot + spark + ftp+ sh 实现导入文件统计 导出 脚本
  • springboot实现基础信息同步到大数据平台 6-10基本搞完了
  • flink开发浮动车GPS数据路径推测功能(gps->匹配路网得到相似度高的多个网格范围->计算点距离每条路段距离->确定车辆在哪条路段) ok
  • 开始日常化开发离线Job 主要是使用DF统计 ing...
  • 高并发下,实时表百亿过车查询优化 ok

hadoop_study's People

Contributors

realguoshuai avatar

Stargazers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

Watchers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

hadoop_study's Issues

Spark

展示spark进度

学习路线

实时计算 : kafka + flink + redis + phoenix
离线计算 : hdfs + hive + spark + mysql
全文检索 : lucene + solr + es
数据同步 : jdbc + logstash + datax
任务调度 : oozie + azkaban

你好大哥

大哥,问个问题,我在本地Windows用java的jdbc连接kerberos管理的hive数据库
一直报连接超时,kbr5.conf如下
ip(123.123.123.123假的)是服务器的映射,ping不通,但是能telnet 10000端口
请问,你知道连接超时可能的原因吗

includedir /etc/krb5.conf.d/

[logging]
default = FILE:/var/log/krb5libs.log
kdc = FILE:/var/log/krb5kdc.log
admin_server = FILE:/var/log/kadmind.log

[libdefaults]
dns_lookup_realm = false
ticket_lifetime = 24h
renew_lifetime = 7d
forwardable = true
rdns = false
default_realm = HADOOP.COM
#default_ccache_name = KEYRING:persistent:%{uid}
udp_preference_limit = 1
kdc_timeout = 30

[realms]
HADOOP.COM = {
kdc = 123.123.123.123
admin_server = 123.123.123.123
}

[domain_realm]
.hadoop.com = HADOOP.COM
hadoop.com = HADOOP.COM

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.