asdrtu 发表于 2018-11-1 09:02:59

用hadoop中的libhdfs和fuse-dfs构建快速云存储

#注意下面的用户,尽量不要用root  [
hadoop@collect-wzlink-205 fuse-dfs]$export  declare -x G_BROKEN_FILENAMES="1"
  declare -x HISTSIZE="1000"
  declare -x HOME="/home/hadoop"
  declare -x INPUTRC="/etc/inputrc"
  declare -x LANG="en_US.UTF-8"
  declare -x LESSOPEN="|/usr/bin/lesspipe.sh %s"
  declare -x LOGNAME="hadoop"
  declare -x LS_COLORS="no=00:fi=00:di=01;34:ln=01;36:pi=40;33:so=01;35:bd=40;33;01:cd=40;33;01:or=01;05;37;41:mi=01;05;37;41:ex=01;32:*.cmd=01;32:*.exe=01;32:*.com=01;32:*.btm=01;32:*.bat=01;32:*.sh=01;32:*.csh=01;32:*.tar=01;31:*.tgz=01;31:*.arj=01;31:*.taz=01;31:*.lzh=01;31:*.zip=01;31:*.z=01;31:*.Z=01;31:*.gz=01;31:*.bz2=01;31:*.bz=01;31:*.tz=01;31:*.rpm=01;31:*.cpio=01;31:*.jpg=01;35:*.gif=01;35:*.bmp=01;35:*.xbm=01;35:*.xpm=01;35:*.png=01;35:*.tif=01;35:"
  declare -x MAIL="/var/spool/mail/root"
  declare -x OLDPWD="/opt/modules/hadoop/hadoop-0.20.203.0/build/contrib"
  declare -x PATH="/usr/kerberos/sbin:/usr/kerberos/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin"
  declare -x PWD="/opt/modules/hadoop/hadoop-0.20.203.0/build/contrib/fuse-dfs"
  declare -x SHELL="/bin/bash"
  declare -x SHLVL="2"
  declare -x TERM="linux"
  declare -x USER="hadoop"

页: [1]
查看完整版本: 用hadoop中的libhdfs和fuse-dfs构建快速云存储