`
gaoyuntao2005
  • 浏览: 302960 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

有这样的一类需求,快速复制一张表,而这张表的数据量又非常的大。比方说本来是分区表,要把它重新变成非分区表,怎么能够快速的完成这样的操作呢?有下面几种方法: 第

阅读更多

有这样的一类需求,快速复制一张表,而这张表的数据量又非常的大。比方说本来是分区表,要把它重新变成非分区表,怎么能够快速的完成这样的操作呢?有下面几种方法:

第一,就是利用CTAS方式来创建一张新表,当然要想加快速度,在数据库不是force logging的前提下,可以使用nologging方式来创建表:

SQL> select force_logging from v$database;
FOR
---
NO

SQL> create table tab_test_bak tablespace ts_test nologging as select * from tab_test;

Table created.

在建立完成表以后,要注意将表的属性重新变成logging:

SQL> select logging from tabs where table_name = 'TAB_TEST_BAK';

LOG
---
NO

SQL> alter table tab_test_bak logging;

Table altered.

CTAS的时候应该可以加PARALLEL参数的,或许会能提升点速度。如果表超大,则导成带分隔符的文本文件,用SQLLOAD,以DIRECT, PARALLEL 方式导入,我试过,这个速度是最快的。

如:

SQL> create table tab_test_bak parallel (n) nologging as select * from tab_test;

第二,就是利用CTAS方式来创建一张无数据新表:CREATE TABLE … AS SELECT .. WHERE 1=2; 然后使用 INSERT /*+ APPEND */ INTO .. SELECT …。最后将表名更改过来,建立一下新的索引,然后就可以了。

SQL> create table tab_test_bak2 tablespace ts_test nologging as select * from tab_test where 1=2;

Table created.

SQL> insert /* +append */ into tab_test_bak2 select * from tab_test;

12612000 rows created.

SQL> commit;

Commit complete.

SQL> drop table tab_test;

Table dropped.

SQL> rename tab_test_bak2 to tab_test;

Table renamed.

在force logging的情况下,sqlldr中的direct=y也是这起作用的。insert /*+ append */ 的时候如果采用并行的话,注意前面加上:alter session enable parallel dml;

第三,在原理上,它其实和第一种方式差不多,就是阻止数据库记录日志来加快速度,大概过程如下:

1、exp出原表(建议compress=n)
2、以nologging的方式,新建表结构和原表一样的空表
3、drop 原表,并rename新表为原表名
4、imp原表至空表中,注意要把ignore设置为y
5、更改新表的属性为logging

如:

D:\>exp 'sys/iamwangnc as sysdba' compress=n tables=tab_test file=d:\tab_test.dmp buffer=1024000

Export: Release 10.2.0.1.0 - Production on Sat Jun 7 20:30:09 2008

Copyright (c) 1982, 2005, Oracle. All rights reserved.


Connected to: Oracle Database 10g Express Edition Release 10.2.0.1.0 - Production
Export done in WE8ISO8859P1 character set and AL16UTF16 NCHAR character set
server uses AL32UTF8 character set (possible charset conversion)

About to export specified tables via Conventional Path ...
. . exporting table                       TAB_TEST      12612000 rows exported
Export terminated successfully without warnings.

D:\>

SQL> create table tab_test_bak3 tablespace ts_test nologging as select * from tab_test where 1=2;

Table created.

SQL> drop table tab_test;

Table dropped.

SQL> rename tab_test_bak3 to tab_test;

Table renamed.

D:\>imp 'sys/iamwangnc as sysdba' ignore=y tables=tab_test file=d:\tab_test.dmp buffer=1024000

Import: Release 10.2.0.1.0 - Production on Sat Jun 7 20:37:25 2008

Copyright (c) 1982, 2005, Oracle. All rights reserved.


Connected to: Oracle Database 10g Express Edition Release 10.2.0.1.0 - Production

Export file created by EXPORT:V10.02.01 via conventional path
import done in WE8ISO8859P1 character set and AL16UTF16 NCHAR character set
import server uses AL32UTF8 character set (possible charset conversion)
. importing SYS's objects into SYS
. importing SYS's objects into SYS
. . importing table                     "TAB_TEST"      12612000 rows imported
Import terminated successfully without warnings.

D:\>

SQL> alter table tab_test logging;

Table altered.

做了测试,第三种方式远远快于前两种方式,大概是其10倍的速度。注意以上三种方式都是在数据库没有force logging的前提下完成的。

如 果是10g的话,可以考虑用一下expdp和impdp。我最开始听说10g下的data pump的时候,就无数次的听到这样的观点:“data pump是用专用的api来实现,目的就是为了在10g中提供快的多的数据导入与导出,导出性能比在9i的direct模式下提到10-15倍,导入性能 能提到5倍”。

第四,用批量绑定结合分布commit的方式写存储过程转移,这么做有个好处就是可以降低对现有系统的影响,并且可以实时的知道转移的进度。

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics