国外网站如何快速转移

  最近的和谐相信很多站长有把网站转移到国外空间,往常最通俗的转移办法就是FTP下载下来,再打包传到新空间解压,但对于国外空间FTP上的速度实在效率有限,对于数据量很大的站长在国外服务器搬家就显得很麻烦,前段日子有朋友请教过我,今天有空就着我这些年来使用的经验,写点经验吧。

    小数据量、空间权限小的办法:FTP下载上传
用FTP下载与上传,是最慢吞吞的了,下载半天,上传也半天。不过,数据量小的网站影响也不大,数据量大而又没有ssh权限的空间选择此方法也是无奈啊,不支持SSH,只好用FTP下载上传了,但是可以到网上找个打包目录程序,打包成压缩包再下载,这样可以提高效率。
    转移目标空间支持SSH
用wget命令实现整站远程下载,在你的新空间,登陆SSH,运行wget命令即可。用wget -m实现远程下载
用法: 
解释: wget -m ftp://用户名:密码@FTP地址
这里的用户名跟密码,是指根目录为网站目录的FTP账号,非常简单,这样子就实现了整站下载到新空间了
或者用下面的命令:
用法:
解释: -b后台运行
       -q不向标准输出输出任何信息
       -X排除某些目录,如gxceo

   
     两边空间都支持SSH
两边空间都支持SSH,这是最简单方便的了。直接用上面的方法也是可以的。另外再介绍一种办法,就是登陆旧空间的SSH,用tar命令进行打包和压缩,再用SSH登陆新空间,把打包好的文件下载过来。再解压就直接OK啦
用法: 
解释: 用tar命令打包gxceo和blog这两个目录,存为test.tar

打包原空间的某些文件
用法:
解释: 用tar命令打包根目录下的所有php和xml文件,存为test.tar
打包原空间的整站文件
用法:
解释: 不想太麻烦,就直接用*号,打包整站。
打包并压缩原空间的整站文件
注意,打包跟压缩是不同的。压缩后会让压缩包体积更小

解释: 加多一个z命令,打包并压缩。存为test.tar.gz
在新空间用wget命令下载,然后解压


如果SSH不支持wget命令
那就用scp命令
copy 本地的档案到远程的机器上
  scp /etc/lilo.conf k@gxceo.com:/home/k  
      会将本地的 /etc/lilo.conf 这个档案 copy 到gxceo.com的/home/k目录 。

  copy远程机器上的档案到本地来
  scp k@gxceo.com:/etc/lilo.conf /etc
  会将 gxceo.com中 /etc/lilo.conf 档案 copy 到本地的 /etc 目录下。

网站的web文件转移部分就这样了,然而还有很重要的部分-数据库数据。
对于国外网站的mysql转移,如果新旧空间都有cpanel的话可以用cpanel打包,然后在新空间导入即可,如果数据库不大(5M以下),直接用PhpMyAdmin备份,新空间中导入即可,如果数据量很大很大的话,我推荐用帝国备份来备份,然后FTP传到新空间进行还原,这样可以很好的避免数据丢失、损坏等问题,并且减少备份过程或还原过程采用的编码错误而导致乱码的问题。好了就写这么多,希望对新手站长有帮助。

引用通告地址: 点击获取引用地址
标签: 网站,国外空间,数据
评论: 2 | 引用: 0 | 阅读: 4102
  • 1 
胶粘剂 [ 2014-08-11 22:14 网址 | 回复 | 编辑/删除 ]
谢谢分享,学习了
hxtg [ 2012-04-29 20:33 | 回复 | 编辑/删除 ]
数据太多确实费时间,没有太好的办法
  • 1 
发表评论
昵 称(*): 密 码:
网 址: 邮 箱:
验证码(*): 验证码图片 选 项:
内 容(*):
  • 粗体
  • 斜体
  • 下划线
  • 插入图像
  • 超链接
  • 电子邮件
  • 插入引用
  • 表情符号