提供7*24专业Sybase数据库远程及现场技术支持,Sybase ASE及Sybase SQL Anywhere数据库修复服务,
请联系电话: (微信),QQ: 289965371!
We supply technical support for Sybase ASE and Sybase SQL Anywhere, also have many years of experience in recovering data from damanged Sybase devices.
Please contact us:
Phone:
Wechat: 13811580958
QQ: 289965371 联系我们获取数据库技术支持!
Email: 289965371@qq.com
扫描下方微信,联系我们:
扫描雨翰数据恢复官方微信获取专业数据库恢复服务

 

随着Sybase被完全整合到SAP下,Sybase原来的支持网站被SAP Support Portal取代。
只有购买了SAP服务的用户才能使用账号登录SAP Support Portal进行介质下载、补丁升级、报Incident等。
目前,原Sybase所有产品(包括:Adaptive Server Enterprise、Sybase IQ、Replication Server、PowerDesigner等)的官方手册仍然可以从https://infocenter.sybase.com/help/index.jsp进行浏览或下载。暂不清楚该网站https://infocenter.sybase.com/help/index.jsp何时会被完全迁移到SAP Support上!
Sybase官方手册英文版有html和pdf两种格式,而中文版手册只有pdf一种格式。为了国内Sybase用户更方便、快捷地搜索Sybase常见产品的官方手册内容,特将中文版Sybase官方手册转为html格式!
Sybase产品官方手册中文版的html格式所有内容的版权归SAP公司所有!本博客站长是Sybase数据库的铁杆粉丝!

如有Sybase数据库技术问题需要咨询,请联系我!

  QQ :289965371 联系我们获取数据库技术支持!
  Email:

以下官方手册为ASE 15.7 ESD#2中文版:

  1. 新增功能公告 适用于 Windows、Linux 和 UNIX 的 Open Server 15.7 和 SDK 15.7
  2. 新增功能摘要
  3. 新增功能指南
  4. ASE 15.7 发行公告
  5. 配置指南(windows)
  6. 安装指南(windows)
  7. 参考手册:构件块
  8. 参考手册:命令
  9. 参考手册:过程
  10. 参考手册:表
  11. Transact-SQL® 用户指南
  12. 系统管理指南,卷 1
  13. 系统管理指南,卷 2
  14. 性能和调优系列:基础知识
  15. 性能和调优系列:锁定和并发控制
  16. 性能和调优系列:监控表
  17. 性能和调优系列:物理数据库调优
  18. 性能和调优系列:查询处理和抽象计划
  19. 性能和调优系列:使用 sp_sysmon 监控 Adaptive Server
  20. 性能和调优系列:利用统计分析改进性能
  21. 程序员参考 jConnect for JDBC 7.0.7
  22. Adaptive Server Enterprise 中的 Java
  23. 组件集成服务用户指南
  24. Ribo 用户指南
  25. 内存数据库用户指南
  26. Sybase Control Center for Adaptive Server® Enterprise
  27. 安全性管理指南
  28. 实用程序指南

 


< 上一个 | 内容 | 下一步 >

增量传输数据


transfer 命令允许增量传输数据,并且在需要时,可以将数据增量传输到 不同产品。在 Adaptive Server 15.5 之前的版本中,只能将所有表从一个 Adaptive Server 传输到另一个。


image

注释 在您购买、安装和注册内存数据库许可证或在您安装 RAP 产品 后, Adaptive Server 即会启用数据传输功能。

image


增量数据传输:

允许从标记为增量传输的 Adaptive Server 表中导出数据,其中只包 括自以前的传输之后更改的数据。

允许读取表数据,而无需获取常规锁,无需保证任何行检索顺序, 并且不会干扰其它正在进行的读取或更新操作。

允许将所选行写入输出文件 (可以是命名管道),其格式为定义的 接收方:IQ (Sybase IQ)ASE (Adaptive Server Enterprise)、批量复 制 (bcp) 文件或字符编码输出。将不加密传输所有选定行,并且缺 省情况下,会在传输行中的任何加密列之前先对其解密。要写入的 文件必须对运行 Adaptive Server 的计算机可见 (文件可以是 Adaptive Server 可作为本地文件打开的 NFS 文件)。

保留合格表的传输历史记录,并且允许在不需要时删除传输历史 记录。

从未声明符合增量传输条件的表导出数据时存在某些限制。

从指示的表传输所有行。目前无法选择某些列,可选择表中的分区 或传输 SQL 查询的结果。


将表标记为增量传输

必须将表标记为可以参与增量传输。可以标记除系统表和工作表以外的 任何表。可以在创建表时或以后使用 alter table 指定合格性。还可以使用 alter table 删除表的合格性。

在合格表中:

如果某行自上一次传输以后发生了更改,以及如果更改现有行或插 入新行的任何事务在传输开始之前已提交,则会传输该行。

这需要额外的存储空间来存储每行,这由行中隐藏的 8 字节列实现。

保留用于传输每个表的附加信息。此类信息包括传输的行集和行数 的标识信息、传输的开始和结束时间、传输的数据格式以及目标文 件的完整路径。

删除表的合格性会删除为支持增量传输而添加的任何行更改,并删除该 表的任何已保存的传输历史记录。


从目标文件传输表


使用 transfer table 命令可将数据从外部文件中包含的表装载到 Adaptive Server 中。请参见 《参考手册:命令》。


image

注释 Adaptive Server 15.5 版必须使用其内部格式来导入表。

image


要装载的表不需要唯一主索引,除非您装载的数据已基于表中已有的数 据发生更改 (可以装载新数据,没有任何限制)。但是,当行复制表中 已有的据,并且您不希望复制数据时,装载数据将成为问题。为避免出 现此问题,唯一主索引允许 Adaptive Server 查找并删除新行替换的旧行。

要装载的表必须将唯一索引作为其主键 (所有页锁定表的聚簇索引或 仅数据锁定表的位置索引)。唯一索引允许 transfer 检测重复键插入尝试, 并将内部 insert 命令转换为 update 命令。没有该索引, Adaptive Server 将无法检测重复的主键。插入更新行会导致:

在表具有任何其它唯一索引并且要插入的行重复该索引中的键时, 部分或所有传输操作失败。

插入成功,但表错误地包含两个或多个使用此主键的行。

以下示例将 pubs2.titles 表从位于 /sybase/data 中的外部 titles.tmp 文件传 输到 Adaptive Server 中:

transfer table titles from '/sybase/data/titles.tmp' for ase


不能对 transfer table...from 使用用于 transfer table.. .to 的所有参数。不适合 从文件装载数据的参数会产生错误,并且传输命令会停止。 Adaptive Server 15.5 版包括 from 参数的保留以备后用的参数,但如果您在语法中 包括这些参数, transfer 会忽略它们。 from 参数的参数是:

column_order=option (不适用于使用 for ase 进行的装载;保留以备 后用)

column_separator=string (不适用于使用 for ase 进行的装载;保留以 备后用)

encryption={true | false}(不适用于使用 for ase 进行的装载;保留以备 后用)

progress= nnn

row_separator=string (不适用于使用 for ase 进行的装载;保留以备 后用)


Adaptive Server 数据类型转换为 IQ

7- 5 显示 Adaptive Server 数据类型在 Sybase IQ 中的表示形式。在传输 数据类型时, Adaptive Server 会进行任何必要的转换以将其数据转换为 指示的 IQ 格式。


7-5Adaptive Server IQ 数据类型的转换

Adaptive Server IQ

数据类型

大小 (字节)

数据类型

大小 (字节)

bigint

unsigned bigint

8

bigint

unsigned bigint

8

int

unsigned int

4

int

unsigned int

4

smallint

2

smallint

2

unsigned smallint

2

int

2

tinyint

1

tinyint

1

numeric(P,S) decimal(P,S)

2 17

numeric(P,S) decimal(P,S)

2 26

double precision

8

double

8

real

4

real

4

float(P)

4, 8

float(P)

4, 8

money

8

money

IQ 将此存储为

numeric(19,4)

16

smallmoney

4

smallmoney

IQ 将此存储为

numeric(10,4)

8

bigdatetime datetime

8

datetime

8

smalldatetime

4

smalldatetime

8

date

4

date

4

time

4

time

8

bigtime

8

time

8

char(N)

1 16296

char(N)

1 16296

char(N) (null)

1 16296

char(N) (null)

1 16296

varchar(N) (null)

1 16296

varchar(N) (null)

1 16296

unichar(N)

1 8148

binary(N*2)

1 16296

unichar(N) null

univarchar(N) (null)

1 8148

varbinary(N*2) (null)

1 16296

binary(N)

1 16296

binary(N)

1 16296

varbinary(N)

1 16296

varbinary(N)

1 16296

binary(N) null

varbinary(N) (null)

1 16296

varbinary(N) (null)

1 16296

bit

1

bit

1

timestamp

8

varbinary(8) null

8


在将 Adaptive Server 数据类型转换为 IQ 数据类型时应考虑以下情况:

IQ Adaptive Server 上定义相同的精度和标度。

float 的存储大小是 4 8 字节,具体取决于精度。如果没有为精度 提供值, Adaptive Server float 存储为 double precision,但 IQ 将它 存储为 realAdaptive Server 不会将浮点数据转换为其它格式以传输 到 IQ。如果必须使用近似数值类型,请将它们指定为 double real,而非 float

• Adaptive Server charunichar binary 数据类型的列的最大长度 取决于您的安装的页大小。 7-5 中指定的最大大小是 16K 页中可 能的最大列。

• Adaptive Server 中每个字符通常需要两个字节来存储 Unicode 字符。 因为 IQ 不包括 Unicode 数据类型,所以 Adaptive Server unichar(N) 作为 binary(N X 2) 传输到 IQ。但 Adaptive Server 不转换 Unicode 字 符:Adaptive Server 使用 NULL(0x00) 填补 Unicode 字符串以将它们 传输到 IQ

• IQ 没有本机 Unicode 数据类型。 Adaptive Server Unicode 字符串 作为每个 Unicode 字符长两个字节的二进制数据传输到 IQ。例如, Adaptive Server 中的 unichar(40) 转换为 IQ 中的 binary(80)。传输后, IQ 无法将 Unicode 数据显示为字符串。


存储传输信息


传输信息存储在以下各项中:

spt_TableTransfer — 表传输结果存储在 spt_TableTransfer 中并从其中 检索

monTableTransfer — 包含表、当前正在进行的传输以及已经完成的传 输的历史传输信息

spt_TableTransfer 从在 transfer table 命令中指定的表检索的成功传输结果将用作后续传输 的缺省值。例如,如果发出以下命令 (包括行和列分隔符):

transfer table mytable for csv

下次传输表 mytable 时, transfer 命令会缺省使用 for csv 和相同的行和列 分隔符。

每个数据库都具有自己的 spt_TableTransfer 版本。表只存储同一数据库 中标记为增量传输的表的表传输历史记录。


max transfer history 配置参数控制 Adaptive Server 在每个数据库的 spt_TableTransfer 表中保留的传输历史记录条目。请参见 《系统管理指 南第一卷》中的第 5 章 “设置配置参数”。

数据库所有者使用 sp_setup_table_transfer 创建 spt_TableTransfer 表。

sp_setup_table_transfer 不采用任何参数,并在当前数据库中运行。

spt_TableTransfer 存储有关成功和失败传输的历史信息。它不存储有关正 在进行的传输的信息。

spt_TableTransfer 是用户表,不是系统表。它不是在您创建 Adaptive Server 时创建的,但如果您没有使用 sp_setup_transfer_table 手动创建 它, Adaptive Server 会自动在具有符合传输条件的表的任何数据库中创 建它 (手动创建它可以避免 Adaptive Server 自动创建表时可能出现的意 外错误)。

sp_help 将增量传输作为表属性进行报告。

spt_TableTransfer 中的列包括:


数据类型

说明

end_code

unsigned smallint not null

传输的结束状态。

0 — 成功。 错误代码 — 失败。

id

int not null

已传输表的对象 ID

ts_floor

bigint not null

开始事务时间戳。

ts_ceiling

bigint not null

在其后未提交行并因而未传输的事 务时间戳。

time_begin

datetime not null

传输的开始日期和时间,或者

如果 transfer 在实现前失败,则 为 Adaptive Server 开始设置命令 的时间。否则为命令将第一个 数据发送到输出文件的时间。

time_end

datetime not null

传输的结束日期和时间,或者

如果 transfer 命令失败,则为失 败时间。否则为命令完成数据 发送并关闭文件的时间

row_count

bigint not null

传输的行数。

byte_count

bigint not null

已写入的字节数。

sequence_id

int not null

一个跟踪此传输的数字,它对于表 的每次传输具有唯一性。


数据类型

说明

col_order

tinyint not null

一个代表输出的列顺序的数字:

• 1 id

• 2 offset

• 3 name

• 4 name_utf8

output_to

tinyint not null

一个代表输出格式的数字:

• 1 ase

• 2 bcp

• 3 csv

• 4 iq

tracking_id

int null

一个客户提供的可选跟踪 ID。如 果不与 tracking_id = nnn 一起使用, 此列将为空。

pathname

varchar (512) null

输出文件名。

row_sep

varchar(64) null

用于 for csv 的行分隔符字符串。

col_sep

varchar(64) null

用于 for csv 的列分隔符。


monTableTransfer monTableTransfer 监控表提供:

• Adaptive Server 当前在内存中保存其传输信息的表的历史传输信息。 这适用于 Adaptive Server 最近重新启动后访问的任何表,除非没有 为 Adaptive Server 配置够大的内存来保存所有当前表信息。

有关当前正在进行的传输和 Adaptive Server 在内存中保存的表的已 完成传输的信息。其中包括有关以下表的信息:

标记为增量传输的表

重新启动 Adaptive Server 后至少一个传输中涉及的表。

不将其说明用于其它表的表。 monTableTransfer 不在每个数据 库中搜索以前传输的每个表;它仅搜索具有最近传输的一组活 动表。

请参见 《参考手册:表》中的 monTableTransfer


例外和错误


不能使用数据传输实用程序来传输数据:

在管道上使用 for bcp 格式

Windows 平台上使用管道

如果您试图执行以下操作, Adaptive Server 会生成错误消息:

传输不存在的表

传输不是表的对象

传输不属于自己的表,并且您没有被授予传输权限和 sa_role 特权

在传输期间解密包含加密列的表中的列,但没有解密这些列的特定 权限

在表包含 text image 列时传输 for iq

传输 for ase,但指定的列顺序不是 offset

传输 for bcp,但指定的列顺序不是 id

发出指定系统目录的 alter table...set transfer table on 命令 传输失败的其它原因包括:

请求的文件无法关闭。

无法传输包含行外列 (存储在行外的 textunitextimage Java

列)的表。

未能打开文件。确保目录存在且 Adaptive Server 在目录中具有 write

权限。

• Adaptive Server 在传输中无法获取足够的内存用于每个表的已保存 数据。如果发生这种情况,需增加 Adaptive Server 可用的内存量。


增量数据传输的示例会话

此教程介绍如何将数据传输到外部文件,更改表中的数据,然后再次使 用 transfer 命令重新填充此外部文件中的表,并演示 transfer 如何将数据 附加到文件中,而不覆盖该文件。


image

注释 虽然此示例将数据传输出去,然后再传输回同一表中,但在典型 用户方案中,会将一个表中的数据传输出去,然后再传输到另一个表中。

image


1 创建 spt_TableTransfer 表,该表存储传输历史记录:

sp_setup_table_transfer

2 配置 max transfer history。缺省值为 10,这表示 Adaptive Server 为每 个标记为增量传输的表保留 10 个成功传输和 10 个不成功传输。此 示例将 max transfer history 的值从 10 更改为 5

sp_configure 'max transfer history', 5


Parameter Name Default Memory Used Config Value Run Value Unit

Type Instance Name

------------------------- ------- -----------

-------------- -------------------- -------

---------------

---------------

max transfer history

10

0

5 5

bytes

dynamic

NULL


3 创建 transfer_example 表,该表已启用 transfer 属性并使用数据行锁:

create table transfer_example ( f1 int,

f2 varchar(30), f3 bigdatetime, primary key (f1)

) lock datarows

with transfer table on

4 用示例数据填充 transfer_example 表:

set nocount on

declare @i int, @vc varchar(1024), @bdt bigdatetime select @i = 1

while @i <= 10 begin

select @vc = replicate(char(64 + @i), 3 * @i) select @bdt = current_bigdatetime()

insert into transfer_example values ( @i, @vc,

@bdt )

select @i = @i + 1 end

set nocount off

该脚本生成以下数据:

select * from transfer_example order by f1


f1 f2 f3

1

AAA

Jul

17

2009

4:40:14.465789PM

2

BBBBBB

Jul

17

2009

4:40:14.488003PM

3

CCCCCCCCC

Jul

17

2009

4:40:14.511749PM

4

DDDDDDDDDDDD

Jul

17

2009

4:40:14.536653PM

5

EEEEEEEEEEEEEEE

Jul

17

2009

4:40:14.559480PM

6

FFFFFFFFFFFFFFFFFF

Jul

17

2009

4:40:14.583400PM

7

GGGGGGGGGGGGGGGGGGGGG

Jul

17

2009

4:40:14.607196PM

8

HHHHHHHHHHHHHHHHHHHHHHHH

Jul

17

2009

4:40:14.632152PM

1

AAA

Jul

17

2009

4:40:14.465789PM

2

BBBBBB

Jul

17

2009

4:40:14.488003PM

3

CCCCCCCCC

Jul

17

2009

4:40:14.511749PM

4

DDDDDDDDDDDD

Jul

17

2009

4:40:14.536653PM

5

EEEEEEEEEEEEEEE

Jul

17

2009

4:40:14.559480PM

6

FFFFFFFFFFFFFFFFFF

Jul

17

2009

4:40:14.583400PM

7

GGGGGGGGGGGGGGGGGGGGG

Jul

17

2009

4:40:14.607196PM

8

HHHHHHHHHHHHHHHHHHHHHHHH

Jul

17

2009

4:40:14.632152PM

--------- ------------------------------ ----------------------------


9 IIIIIIIIIIIIIIIIIIIIIIIIIII Jul 17 2009 4:40:14.655184PM

10 JJJJJJJJJJJJJJJJJJJJJJJJJJJJJJ Jul 17 2009 4:40:14.678938PM

5 使用 for ase 格式将 transfer_example 数据传输到外部文件:

transfer table transfer_example to 'transfer_example-data.ase' for ase


(10 rows affected)

数据传输过程将在 spt_TableTransfer 中创建以下历史记录:

select id, sequence_id, end_code, ts_floor, ts_ceiling, row_count from spt_TableTransfer

where id = object_id('transfer_example')

id

sequence_id

end_code

ts_floor ts_ceiling

row_count

---------

-----------

--------

------------- -----------

--------

592002109

1

0

0 5309

10

6 禁用 transfer_example transfer 属性以演示接收表无需启用 transfer 属性便可接收增量数据 (数据库必须启用 select into 才能运行 alter table):

alter table transfer_example set transfer table off

alter table 命令运行后, spt_TableTransfer 为空:

select id, sequence_id, end_code, ts_floor, ts_ceiling, row_count from spt_TableTransfer

where id = object_id('transfer_example')

id

sequence_id

end_code

ts_floor ts_ceiling

row_count

---------

-----------

--------

------------- -----------

--------

(0 rows affected


7 更新 transfer_example 以将其字符数据设置为 no data 并指定其

bigdatetime 列中的日期和时间,以便可以检验表是否包含原始数据:

update transfer_example set f2 = 'no data',

f3 = 'Jan 1, 1900 12:00:00.000001AM'


(10 rows affected)

update 后, transfer_example 包含以下数据。

select * from transfer_example order by f1

f1 f2 f3

----------- ------------------------------ ---------------------------

1

no

data

Jan

1

1900

12:00:00.000001AM

2

no

data

Jan

1

1900

12:00:00.000001AM

3

no

data

Jan

1

1900

12:00:00.000001AM

4

no

data

Jan

1

1900

12:00:00.000001AM

5

no

data

Jan

1

1900

12:00:00.000001AM

6

no

data

Jan

1

1900

12:00:00.000001AM

7

no

data

Jan

1

1900

12:00:00.000001AM

8

no

data

Jan

1

1900

12:00:00.000001AM

9

no

data

Jan

1

1900

12:00:00.000001AM

10

no

data

Jan

1

1900

12:00:00.000001AM

(10 rows affected)

8 将示例数据从外部文件传输到 transfer_example 中。虽然 transfer_example 不再标记为增量传输,您仍可以将数据传输到表中。因为它具有唯 一主索引,所以传入行会替换现有数据,且不会产生重复键错误:

transfer table transfer_example from 'transfer_example-data.ase' for ase


(10 rows affected)

9 选择 transfer_example 中的所有数据,以检验传入数据是否替换了已 更改数据。 transfer 替换了 transfer_example.f2 transfer_example.f3 表的内容,这两个表包含原来为它们创建的数据,且存储在 transfer_example-data.ase 输出文件中。

select * from transfer_example order by f1

f1 f2 f3

------- ------------------------------ ---------------------------- 1 AAA Jul 17 2009 4:40:14.465789PM

2 BBBBBB Jul 17 2009 4:40:14.488003PM


3

CCCCCCCCC

Jul

17

2009

4:40:14.511749PM

4

DDDDDDDDDDDD

Jul

17

2009

4:40:14.536653PM

5

EEEEEEEEEEEEEEE

Jul

17

2009

4:40:14.559480PM

6

FFFFFFFFFFFFFFFFFF

Jul

17

2009

4:40:14.583400PM

7

GGGGGGGGGGGGGGGGGGGGG

Jul

17

2009

4:40:14.607196PM

8

HHHHHHHHHHHHHHHHHHHHHHHH

Jul

17

2009

4:40:14.632152PM

9

IIIIIIIIIIIIIIIIIIIIIIIIIII

Jul

17

2009

4:40:14.655184PM

10 JJJJJJJJJJJJJJJJJJJJJJJJJJJJJJ Jul 17 2009 4:40:14.678938PM

10 transfer_example 重新启用 transfer,以便后续传输缺省使用以前的 参数:

alter table transfer_example set transfer table on

(10 rows affected)


使用新行替换数据


如果更改了一些行的键值,则在使用增量传输时,下一个表 transfer 会 将已更改的键数据行视为新数据,并且只替换其键未更改的行的数据。

1 transfer_example 使用 f1 列作为主键列。 Adaptive Server 使用此列确 定传入行是否包含新数据,或它是否替换现有行。

例如,如果通过向键为 35 7 的行的各个值添加 10 来替换它们:

update transfer_example set f1 = f1 + 10

where f1 in (3,5,7) (3 rows affected)

transfer_example 现在包括键为 1315 17 的行,transfer 将其视为 新行。在向 transfer_example 中传输相同数据时, transfer 会插入键 为 35 7 的行,并保留键为 1315 17 的行。

transfer table transfer_example from 'transfer_example-data.ase' for ase

(10 rows affected)

2 检验 f2 f3 的行 3 中的数据是否与行 13 中的数据相同,行 5 中的

数据是否与行 15 中的数据相同,行 7 中的数据是否与行 17 中的数 据相同:

select * from transfer_example order by f1

f1 f2 f3

------- ------------------------------ ---------------------------- 1 AAA Jul 17 2009 4:40:14.465789PM


2

BBBBBB

Jul

17

2009

4:40:14.488003PM

3

CCCCCCCCC

Jul

17

2009

4:40:14.511749PM

4

DDDDDDDDDDDD

Jul

17

2009

4:40:14.536653PM

5

EEEEEEEEEEEEEEE

Jul

17

2009

4:40:14.559480PM

6

FFFFFFFFFFFFFFFFFF

Jul

17

2009

4:40:14.583400PM

7

GGGGGGGGGGGGGGGGGGGGG

Jul

17

2009

4:40:14.607196PM

8

HHHHHHHHHHHHHHHHHHHHHHHH

Jul

17

2009

4:40:14.632152PM

9

IIIIIIIIIIIIIIIIIIIIIIIIIII

Jul

17

2009

4:40:14.655184PM

10

JJJJJJJJJJJJJJJJJJJJJJJJJJJJJJ

Jul

17

2009

4:40:14.678938PM

13

CCCCCCCCC

Jul

17

2009

4:40:14.511749PM

15

EEEEEEEEEEEEEEE

Jul

17

2009

4:40:14.559480PM

17

GGGGGGGGGGGGGGGGGGGGG

Jul

17

2009

4:40:14.607196PM


(13 rows affected)

3 transfer_example 再次传输出来:传输所有的 13 行。 Adaptive Server 将传输进来的键为 35 7 的行视为新行,因为它们替换了 现有行 (此示例使用跟踪 ID 101):

transfer table transfer_example to 'transfer_example-data-01.ase' for ase

with tracking_id = 101 (13 rows affected)

4 修改行以显示增量 transfer 只传输上一次传输之后修改的行 (此更 新影响 3 行)。

update transfer_example

set f3 = current_bigdatetime() where f1 > 10

(3 rows affected)

5 将表再次传输出来以检验只传输了 3 个已更改行。无需指定 for ase

Adaptive Server 将上一次传输中设置的此参数用作缺省值。

transfer table transfer_example to 'transfer_example-data-02.ase' with tracking_id = 102

(3 rows affected)

6 使用步骤 3 中的 tracking_id 查看传输信息:

select id, sequence_id, end_code, ts_floor, ts_ceiling, row_count from spt_TableTransfer

where id = object_id('transfer_example') and tracking_id = 101

id sequence_id end_code ts_floor ts_ceiling row_count


----------- ----------- -------- -------------------- ------

--------------

592002109 3

0

5309 5716

13




--------------------------------------华丽的分割线-------------------------------------------------------------------------

Sybase SQL Anywhere数据库恢复工具ReadASADB:

之前就已经研发成功了能够从Sybase SQL Anywhere的DB文件中恢复数据的工具: ReadASADB。
此工具支持ASA v5.0, v6.0, v7.0, v8.0, v9.0, v10.0, v11.0, v12.0, v16.0, v17.0等版本。
能够从损坏的SQL Anywhere数据文件(.db)和UltraLite数据文件(.udb)上提取数据的非常规恢复工具。
恢复Sybase SQL Anywhere的工具在国内处于领先水平。

Sybase SQL Anywhere数据库恢复工具ReadASADB功能
能够从损坏的SQL Anywhere数据文件(.db)和UltraLite数据文件(.udb)上提取数据的非常规恢复工具
  1. 适用于所有的SQL Anywhere版本    包括:5.x,6.x,7.x,8.x,9.x,10.x,11.x,12.x,16.x,17.x
  2. 适用于所有的UltraLite版本
  3. 能够恢复出来表结构和数据
  4. 能够恢复自定义数据类型
  5. 能够恢复存储过程等对象的语法
  6. 能够导出到目标数据库
  7. 能够导出到SQL文件并生成导入脚本
  8. 支持多种字符集,包括:cp850、cp936、gb18030、utf8等
  9. 能够恢复未加密或者简单加密类型的数据
  10. 简单易用
  11. 限制:不支持AES加密的数据文件
请参考:研发成功了从Sybase SQL Anywhere的DB文件上恢复数据的工具
            SQL Anywhere数据库非常规恢复工具ReadASADB使用介绍

Sybase SQL Anywhere数据库恢复工具ReadASADB适用场景

各种误操作:

  1. 误截断表(truncate table)
  2. 误删除表(drop table)
  3. 错误的where条件误删数据
  4. 误删除db或log文件
  5. 误删除表中的字段

Sybase SQL Anywhere数据库恢复工具ReadASADB的应用场景:

1.因为物理磁盘故障、操作系统、系统软件方面或者掉电等等原因导致的Sybase SQL Anywhere数据库无法打开的情况;
2.误操作,包括truncate table,drop table,不正确的where条件导致的误删除等;
Sybase SQL Anywhere无法打开时,比较常见的错误是:Assertion failed。
如:
1、Internal database error *** ERROR *** Assertion failed:201819 (8.0.1.2600) Checkpoint log: invalid bitmap page -- transaction rolled back
2、Internal database error *** ERROR *** Assertion failed:201819 (8.0.1.2600) Page number on page does not match page requested -- transaction rolled back
3、Internal database error *** ERROR *** Assertion failed:200502 (9.0.2.2451) Checksum failure on page 23 -- transaction rolled back
4、File is shorter than expected
5、Internal database error *** ERROR *** Assertion failed: 201116 Invalid free list index page found while processing checkpoint log -- transaction rolled back
6、*** ERROR *** Assertion failed: 51901 Page for requested record not a table page or record not present on page
7、*** ERROR *** Assertion failed: 201417 (7.0.4.3541) Invalid count or free space offset detected on a table page
8、Internal database error *** ERROR *** Assertion failed: 201425 (8.0.3.5594) Invalid count or free space offset detected on a free list page -- transaction rolled back.
9、Internal database error *** ERROR *** Assertion failed: 100702 (8.0.1.2600) Unable to modify indexes for a row referenced in rollback log -- transaction rolled back


-------------------------------------------------------------------------------------------

Sybase ASE数据库恢复工具READSYBDEVICE:

一个不依赖数据库管理系统、直接从Sybase数据库设备文件上提取数据的业内领先的恢复工具!
能够从损坏的Sybase ASE设备文件(.dat)上提取数据的非常规恢复工具。

Sybase ASE数据库恢复工具READSYBDEVICE的主要功能:

  1. 被勒索病毒加密数据文件及备份文件情况下的恢复;
  2. 系统崩溃只剩下数据文件的情况下的恢复,甚至数据库文件不存在而只有损坏的备份文件情况下的恢复;
  3. 因断电、硬盘坏道等造成数据库文件损坏情况下的恢复;
  4. delete数据恢复、误update数据恢复、误删除表(drop)恢复、误truncate表恢复 等;
  5. 各种Sybase内部系统表损坏、索引错误的修复;
  6. master数据库损坏而无法正常运行情况下的恢复;
  7. Sybase数据库被标记为可疑,不可用等情况的恢复;
  8. Sybase数据库中数据文件内部出现坏块情况下的恢复;
  9. Sybase数据库无数据文件但有日志文件的情况下的恢复;
  10. Sybase数据库只有数据文件无任何日志文件的情况下的恢复;
  11. Sybase数据文件被误删除情况下的碎片提取恢复;
  12. 磁盘阵列上的Sybase数据库被误格式化情况下的数据库恢复;
  13. 数据库sysobjects等系统表损坏无法正常应用情况下的恢复;
  14. Sybase数据库还原数据库出现失败情况下的恢复;
  15. Sybase数据库只剩下损坏的备份文件情况下的恢复。

Sybase ASE数据库恢复工具READSYBDEVICE支持的版本:

Sybase ASE 11.0.x,11.5.x,11.9.x,12.0.x,12.5.x,15.0.x,15.5.x,15.7.x,16.0.x


-------------------------------------------------------------------------------------------

SQL Server数据库恢复工具SQLRescue:

一个不依赖数据库管理系统、直接从SQL Server数据库文件上提取数据的业内领先的恢复工具!
能够从损坏的SQL Server数据库文件(.mdf)上提取数据的非常规恢复工具。

SQL Server数据库恢复工具SQLRescue的主要功能:

  1. 系统崩溃只剩下数据文件的情况下的恢复,即无日志文件或者日志文件损坏情况下的恢复;
  2. 断电导致数据库文件损坏情况下的恢复;
  3. 硬盘坏道造成数据库损坏情况下的恢复;
  4. 数据文件内部存在坏页情况下的恢复;
  5. 企业管理器误删除数据表记录,管理软件误删除数据表记录的恢复;
  6. 并闩锁错误、格式化、误删除后导致软件不能使用的情况;
  7. 无法读取并闩锁页sysindexes失败情况下的修复;
  8. 数据文件被误删除情况下的碎片提取恢复;
  9. 系统表损坏、索引错误、误删除数据库表、删除记录的数据找回;
  10. master数据库损坏而无法正常运行情况下的恢复;
  11. 数据文件无法附加情况下的数据恢复;
  12. 数据库被标记为可疑,质疑,不可用等情况的恢复;
  13. 数据库sysobjects等系统表损坏情况下的恢复;
  14. 数据被误(drop、delete、truncate)删除表数据的恢复,误update后的数据恢复等;
  15. 还原时报一致性错误,错误823等情况下的数据恢复,各种错误提示的数据库文件修复;
  16. 数据库被误格式化等情况下的数据库恢复;
  17. 日志收缩造成数据库损坏情况下的恢复;
  18. 仅剩损坏的备份文件情况下的恢复。

SQL Server数据库恢复工具SQLRescue技术特点:

只要SQL Server数据库的数据文件存在,我们就有办法帮您从数据文件中找回重要数据。
  1. 从数据文件中直接恢复数据
  2. 不能附加时直接恢复数据并生成新的数据库
  3. 系统表损坏的数据库修复
  4. 快速修复SQL 823错误、连接中断错误

SQL Server数据库恢复工具SQLRescue支持的版本:

Microsoft SQL Server 7.0, 2000, 2005, 2008, 2008R2, 2012, 2014, 2016, 2017,2019。
+-------------------------------------华丽的分割线-------------------------------------------------------------------------