求助电工!数据处理!

  • x
    xiaobingss
    我有一个14.5g的csv数据,大概5000多万条。想分割成大概50到100万条一个的csv.
    同时由于数据是utf8编码的,希望可以转换成excel不乱码的。
    谁可以帮忙处理?本人外行。可以有偿。
    我查过解决方案python,linux都可以,我不太懂,感激。
  • p
    peng123456
    不考虑速度for循环! csv能直接导入到数据库小尾巴~
  • i
    infpower
    csv 分割器
  • l
    lidongbest
    回复1#xiaobingss


    我可以帮忙,但是这么大,怎么给我?还是我把代码给你?
  • x
    xiaobingss
    回复2#peng123456

    这个方式不行,接下来我处理不了。我得需求就是csv分割成可以excel处理的。
  • x
    xiaobingss
    回复3#infpower

    试过。太大,不能。。。
  • x
    xiaobingss
    回复4#lidongbest

    u盘?可否?
  • i
    infpower
    csv压缩下很小的,楼主可以试下,10g压缩后大概100M
  • t
    trokey
    sed直接切文件行
  • p
    peng123456
    回复5#xiaobingss
    数据库 的话代码随便写了!小尾巴~
  • z
    zhenyue
    我能说这个vim操作几下就ok么
  • t
    trokey
    sed -n '起始行,终止行p' FILE > 最终文件
  • 风一样的sb
    我不懂,乱说一下:
    先弄入数据库,然后请人远程协助或者求人写个脚本命令之类的,导出几十个excel表格
  • x
    xRAIN
    sed 研究一下
  • f
    funcc
    50万行的excel处理起来也慢的很,最好用数据库
  • z
    znm
    Linux sed 重定向就好了吧 iOS fly ~
  • x
    xiaobingss
    感谢楼上,这些我都不懂。数据库复杂了。当前尝试linux切一下
  • f
    freerock
    vim 管道,几行命令的事儿 iOS
  • 碧的绿
    都是文本压缩一下可以到1/50
  • y
    yxmr
    python切割容易,但写入excel效率不高吧
  • A
    Aweall
    split 命令
  • l
    lifanxi
    split就行。不过这个数据量用Excel处理真是吃力了。你需要考虑用Drill,或者Hive。
  • g
    godgunhand
    excel 如果打开文件超过5万行会非常慢的。如果对整列用了比较复杂的公式那就更麻烦了, 更新计算结果都要等半天。
  • l
    lidongbest
    你压缩成zip,网盘给我