随着Sybase被完全整合到SAP下,Sybase原来的支持网站被SAP Support Portal取代。
只有购买了SAP服务的用户才能使用账号登录SAP Support Portal进行介质下载、补丁升级、报Incident等。
目前,原Sybase所有产品(包括:Adaptive Server Enterprise、Sybase IQ、Replication Server、PowerDesigner等)的官方手册仍然可以从https://infocenter.sybase.com/help/index.jsp进行浏览或下载。暂不清楚该网站https://infocenter.sybase.com/help/index.jsp何时会被完全迁移到SAP Support上!
Sybase官方手册英文版有html和pdf两种格式,而中文版手册只有pdf一种格式。为了国内Sybase用户更方便、快捷地搜索Sybase常见产品的官方手册内容,特将中文版Sybase官方手册转为html格式!
Sybase产品官方手册中文版的html格式所有内容的版权归SAP公司所有!本博客站长是Sybase数据库的铁杆粉丝!
如有Sybase数据库技术问题需要咨询,请联系我!
以下官方手册为ASE 15.7 ESD#2中文版:
- 新增功能公告 适用于 Windows、Linux 和 UNIX 的 Open Server 15.7 和 SDK 15.7
- 新增功能摘要
- 新增功能指南
- ASE 15.7 发行公告
- 配置指南(windows)
- 安装指南(windows)
- 参考手册:构件块
- 参考手册:命令
- 参考手册:过程
- 参考手册:表
- Transact-SQL® 用户指南
- 系统管理指南,卷 1
- 系统管理指南,卷 2
- 性能和调优系列:基础知识
- 性能和调优系列:锁定和并发控制
- 性能和调优系列:监控表
- 性能和调优系列:物理数据库调优
- 性能和调优系列:查询处理和抽象计划
- 性能和调优系列:使用 sp_sysmon 监控 Adaptive Server
- 性能和调优系列:利用统计分析改进性能
- 程序员参考 jConnect for JDBC 7.0.7
- Adaptive Server Enterprise 中的 Java
- 组件集成服务用户指南
- Ribo 用户指南
- 内存数据库用户指南
- Sybase Control Center for Adaptive Server® Enterprise
- 安全性管理指南
- 实用程序指南
增量传输数据
transfer 命令允许增量传输数据,并且在需要时,可以将数据增量传输到 不同产品。在 Adaptive Server 15.5 之前的版本中,只能将所有表从一个 Adaptive Server 传输到另一个。
注释 在您购买、安装和注册内存数据库许可证或在您安装 RAP 产品 后, Adaptive Server 即会启用数据传输功能。
增量数据传输:
• 允许从标记为增量传输的 Adaptive Server 表中导出数据,其中只包 括自以前的传输之后更改的数据。
• 允许读取表数据,而无需获取常规锁,无需保证任何行检索顺序, 并且不会干扰其它正在进行的读取或更新操作。
• 允许将所选行写入输出文件 (可以是命名管道),其格式为定义的 接收方:IQ (Sybase IQ)、 ASE (Adaptive Server Enterprise)、批量复 制 (bcp) 文件或字符编码输出。将不加密传输所有选定行,并且缺 省情况下,会在传输行中的任何加密列之前先对其解密。要写入的 文件必须对运行 Adaptive Server 的计算机可见 (文件可以是 Adaptive Server 可作为本地文件打开的 NFS 文件)。
• 保留合格表的传输历史记录,并且允许在不需要时删除传输历史 记录。
• 从未声明符合增量传输条件的表导出数据时存在某些限制。
• 从指示的表传输所有行。目前无法选择某些列,可选择表中的分区 或传输 SQL 查询的结果。
必须将表标记为可以参与增量传输。可以标记除系统表和工作表以外的 任何表。可以在创建表时或以后使用 alter table 指定合格性。还可以使用 alter table 删除表的合格性。
在合格表中:
• 如果某行自上一次传输以后发生了更改,以及如果更改现有行或插 入新行的任何事务在传输开始之前已提交,则会传输该行。
这需要额外的存储空间来存储每行,这由行中隐藏的 8 字节列实现。
• 保留用于传输每个表的附加信息。此类信息包括传输的行集和行数 的标识信息、传输的开始和结束时间、传输的数据格式以及目标文 件的完整路径。
删除表的合格性会删除为支持增量传输而添加的任何行更改,并删除该 表的任何已保存的传输历史记录。
使用 transfer table 命令可将数据从外部文件中包含的表装载到 Adaptive Server 中。请参见 《参考手册:命令》。
注释 Adaptive Server 15.5 版必须使用其内部格式来导入表。
要装载的表不需要唯一主索引,除非您装载的数据已基于表中已有的数 据发生更改 (可以装载新数据,没有任何限制)。但是,当行复制表中 已有的据,并且您不希望复制数据时,装载数据将成为问题。为避免出 现此问题,唯一主索引允许 Adaptive Server 查找并删除新行替换的旧行。
要装载的表必须将唯一索引作为其主键 (所有页锁定表的聚簇索引或 仅数据锁定表的位置索引)。唯一索引允许 transfer 检测重复键插入尝试, 并将内部 insert 命令转换为 update 命令。没有该索引, Adaptive Server 将无法检测重复的主键。插入更新行会导致:
• 在表具有任何其它唯一索引并且要插入的行重复该索引中的键时, 部分或所有传输操作失败。
• 插入成功,但表错误地包含两个或多个使用此主键的行。
以下示例将 pubs2.titles 表从位于 /sybase/data 中的外部 titles.tmp 文件传 输到 Adaptive Server 中:
transfer table titles from '/sybase/data/titles.tmp' for ase
不能对 transfer table...from 使用用于 transfer table.. .to 的所有参数。不适合 从文件装载数据的参数会产生错误,并且传输命令会停止。 Adaptive Server 15.5 版包括 from 参数的保留以备后用的参数,但如果您在语法中 包括这些参数, transfer 会忽略它们。 from 参数的参数是:
• column_order=option (不适用于使用 for ase 进行的装载;保留以备 后用)
• column_separator=string (不适用于使用 for ase 进行的装载;保留以 备后用)
• encryption={true | false}(不适用于使用 for ase 进行的装载;保留以备 后用)
• progress= nnn
• row_separator=string (不适用于使用 for ase 进行的装载;保留以备 后用)
将 Adaptive Server 数据类型转换为 IQ
表 7- 5 显示 Adaptive Server 数据类型在 Sybase IQ 中的表示形式。在传输 数据类型时, Adaptive Server 会进行任何必要的转换以将其数据转换为 指示的 IQ 格式。
表 7-5:Adaptive Server 到 IQ 数据类型的转换
Adaptive Server IQ
数据类型 |
大小 (字节) |
数据类型 |
大小 (字节) |
bigint unsigned bigint |
8 |
bigint unsigned bigint |
8 |
int unsigned int |
4 |
int unsigned int |
4 |
smallint |
2 |
smallint |
2 |
unsigned smallint |
2 |
int |
2 |
tinyint |
1 |
tinyint |
1 |
numeric(P,S) decimal(P,S) |
2 – 17 |
numeric(P,S) decimal(P,S) |
2 – 26 |
double precision |
8 |
double |
8 |
real |
4 |
real |
4 |
float(P) |
4, 8 |
float(P) |
4, 8 |
money |
8 |
money IQ 将此存储为 numeric(19,4) |
16 |
smallmoney |
4 |
smallmoney IQ 将此存储为 numeric(10,4) |
8 |
bigdatetime datetime |
8 |
datetime |
8 |
smalldatetime |
4 |
smalldatetime |
8 |
date |
4 |
date |
4 |
time |
4 |
time |
8 |
bigtime |
8 |
time |
8 |
char(N) |
1 – 16296 |
char(N) |
1 – 16296 |
char(N) (null) |
1 – 16296 |
char(N) (null) |
1 – 16296 |
varchar(N) (null) |
1 – 16296 |
varchar(N) (null) |
1 – 16296 |
unichar(N) |
1 – 8148 |
binary(N*2) |
1 – 16296 |
unichar(N) null univarchar(N) (null) |
1 – 8148 |
varbinary(N*2) (null) |
1 – 16296 |
binary(N) |
1 – 16296 |
binary(N) |
1 – 16296 |
varbinary(N) |
1 – 16296 |
varbinary(N) |
1 – 16296 |
binary(N) null varbinary(N) (null) |
1 – 16296 |
varbinary(N) (null) |
1 – 16296 |
bit |
1 |
bit |
1 |
timestamp |
8 |
varbinary(8) null |
8 |
在将 Adaptive Server 数据类型转换为 IQ 数据类型时应考虑以下情况:
• 在 IQ 和 Adaptive Server 上定义相同的精度和标度。
• float 的存储大小是 4 或 8 字节,具体取决于精度。如果没有为精度 提供值, Adaptive Server 将 float 存储为 double precision,但 IQ 将它 存储为 real。Adaptive Server 不会将浮点数据转换为其它格式以传输 到 IQ。如果必须使用近似数值类型,请将它们指定为 double 或 real,而非 float。
• Adaptive Server 中 char、 unichar 或 binary 数据类型的列的最大长度 取决于您的安装的页大小。 表 7-5 中指定的最大大小是 16K 页中可 能的最大列。
• Adaptive Server 中每个字符通常需要两个字节来存储 Unicode 字符。 因为 IQ 不包括 Unicode 数据类型,所以 Adaptive Server 将 unichar(N) 作为 binary(N X 2) 传输到 IQ。但 Adaptive Server 不转换 Unicode 字 符:Adaptive Server 使用 NULL(0x00) 填补 Unicode 字符串以将它们 传输到 IQ。
• IQ 没有本机 Unicode 数据类型。 Adaptive Server 将 Unicode 字符串 作为每个 Unicode 字符长两个字节的二进制数据传输到 IQ。例如, Adaptive Server 中的 unichar(40) 转换为 IQ 中的 binary(80)。传输后, IQ 无法将 Unicode 数据显示为字符串。
• spt_TableTransfer — 表传输结果存储在 spt_TableTransfer 中并从其中 检索
• monTableTransfer — 包含表、当前正在进行的传输以及已经完成的传 输的历史传输信息
spt_TableTransfer 从在 transfer table 命令中指定的表检索的成功传输结果将用作后续传输 的缺省值。例如,如果发出以下命令 (包括行和列分隔符):
transfer table mytable for csv
下次传输表 mytable 时, transfer 命令会缺省使用 for csv 和相同的行和列 分隔符。
每个数据库都具有自己的 spt_TableTransfer 版本。表只存储同一数据库 中标记为增量传输的表的表传输历史记录。
max transfer history 配置参数控制 Adaptive Server 在每个数据库的 spt_TableTransfer 表中保留的传输历史记录条目。请参见 《系统管理指 南第一卷》中的第 5 章 “设置配置参数”。
数据库所有者使用 sp_setup_table_transfer 创建 spt_TableTransfer 表。
sp_setup_table_transfer 不采用任何参数,并在当前数据库中运行。
spt_TableTransfer 存储有关成功和失败传输的历史信息。它不存储有关正 在进行的传输的信息。
spt_TableTransfer 是用户表,不是系统表。它不是在您创建 Adaptive Server 时创建的,但如果您没有使用 sp_setup_transfer_table 手动创建 它, Adaptive Server 会自动在具有符合传输条件的表的任何数据库中创 建它 (手动创建它可以避免 Adaptive Server 自动创建表时可能出现的意 外错误)。
sp_help 将增量传输作为表属性进行报告。
spt_TableTransfer 中的列包括:
列 |
数据类型 |
说明 |
end_code |
unsigned smallint not null |
传输的结束状态。 0 — 成功。 错误代码 — 失败。 |
id |
int not null |
已传输表的对象 ID。 |
ts_floor |
bigint not null |
开始事务时间戳。 |
ts_ceiling |
bigint not null |
在其后未提交行并因而未传输的事 务时间戳。 |
time_begin |
datetime not null |
• 传输的开始日期和时间,或者 • 如果 transfer 在实现前失败,则 为 Adaptive Server 开始设置命令 的时间。否则为命令将第一个 数据发送到输出文件的时间。 |
time_end |
datetime not null |
• 传输的结束日期和时间,或者 • 如果 transfer 命令失败,则为失 败时间。否则为命令完成数据 发送并关闭文件的时间 |
row_count |
bigint not null |
传输的行数。 |
byte_count |
bigint not null |
已写入的字节数。 |
sequence_id |
int not null |
一个跟踪此传输的数字,它对于表 的每次传输具有唯一性。 |
列 |
数据类型 |
说明 |
col_order |
tinyint not null |
一个代表输出的列顺序的数字: • 1 — id • 2 — offset • 3 — name • 4 — name_utf8 |
output_to |
tinyint not null |
一个代表输出格式的数字: • 1 — ase • 2 — bcp • 3 — csv • 4 — iq |
tracking_id |
int null |
一个客户提供的可选跟踪 ID。如 果不与 tracking_id = nnn 一起使用, 此列将为空。 |
pathname |
varchar (512) null |
输出文件名。 |
row_sep |
varchar(64) null |
用于 for csv 的行分隔符字符串。 |
col_sep |
varchar(64) null |
用于 for csv 的列分隔符。 |
monTableTransfer monTableTransfer 监控表提供:
• Adaptive Server 当前在内存中保存其传输信息的表的历史传输信息。 这适用于 Adaptive Server 最近重新启动后访问的任何表,除非没有 为 Adaptive Server 配置够大的内存来保存所有当前表信息。
• 有关当前正在进行的传输和 Adaptive Server 在内存中保存的表的已 完成传输的信息。其中包括有关以下表的信息:
• 标记为增量传输的表
• 重新启动 Adaptive Server 后至少一个传输中涉及的表。
• 不将其说明用于其它表的表。 monTableTransfer 不在每个数据 库中搜索以前传输的每个表;它仅搜索具有最近传输的一组活 动表。
请参见 《参考手册:表》中的 monTableTransfer。
不能使用数据传输实用程序来传输数据:
• 在管道上使用 for bcp 格式
• 在 Windows 平台上使用管道
如果您试图执行以下操作, Adaptive Server 会生成错误消息:
• 传输不存在的表
• 传输不是表的对象
• 传输不属于自己的表,并且您没有被授予传输权限和 sa_role 特权
• 在传输期间解密包含加密列的表中的列,但没有解密这些列的特定 权限
• 在表包含 text 或 image 列时传输 for iq
• 传输 for ase,但指定的列顺序不是 offset
• 传输 for bcp,但指定的列顺序不是 id
• 发出指定系统目录的 alter table...set transfer table on 命令 传输失败的其它原因包括:
• 请求的文件无法关闭。
• 无法传输包含行外列 (存储在行外的 text、 unitext、 image 和 Java
列)的表。
• 未能打开文件。确保目录存在且 Adaptive Server 在目录中具有 write
权限。
• Adaptive Server 在传输中无法获取足够的内存用于每个表的已保存 数据。如果发生这种情况,需增加 Adaptive Server 可用的内存量。
此教程介绍如何将数据传输到外部文件,更改表中的数据,然后再次使 用 transfer 命令重新填充此外部文件中的表,并演示 transfer 如何将数据 附加到文件中,而不覆盖该文件。
注释 虽然此示例将数据传输出去,然后再传输回同一表中,但在典型 用户方案中,会将一个表中的数据传输出去,然后再传输到另一个表中。
1 创建 spt_TableTransfer 表,该表存储传输历史记录:
sp_setup_table_transfer
2 配置 max transfer history。缺省值为 10,这表示 Adaptive Server 为每 个标记为增量传输的表保留 10 个成功传输和 10 个不成功传输。此 示例将 max transfer history 的值从 10 更改为 5:
sp_configure 'max transfer history', 5
Parameter Name Default Memory Used Config Value Run Value Unit
Type Instance Name
------------------------- ------- -----------
-------------- -------------------- -------
--------------- |
--------------- |
|
max transfer history |
10 |
0 |
5 5 |
bytes |
|
dynamic |
NULL |
3 创建 transfer_example 表,该表已启用 transfer 属性并使用数据行锁:
create table transfer_example ( f1 int,
f2 varchar(30), f3 bigdatetime, primary key (f1)
) lock datarows
with transfer table on
4 用示例数据填充 transfer_example 表:
set nocount on
declare @i int, @vc varchar(1024), @bdt bigdatetime select @i = 1
while @i <= 10 begin
select @vc = replicate(char(64 + @i), 3 * @i) select @bdt = current_bigdatetime()
insert into transfer_example values ( @i, @vc,
@bdt )
select @i = @i + 1 end
set nocount off
该脚本生成以下数据:
select * from transfer_example order by f1
f1 f2 f3
1 |
AAA |
Jul |
17 |
2009 |
4:40:14.465789PM |
2 |
BBBBBB |
Jul |
17 |
2009 |
4:40:14.488003PM |
3 |
CCCCCCCCC |
Jul |
17 |
2009 |
4:40:14.511749PM |
4 |
DDDDDDDDDDDD |
Jul |
17 |
2009 |
4:40:14.536653PM |
5 |
EEEEEEEEEEEEEEE |
Jul |
17 |
2009 |
4:40:14.559480PM |
6 |
FFFFFFFFFFFFFFFFFF |
Jul |
17 |
2009 |
4:40:14.583400PM |
7 |
GGGGGGGGGGGGGGGGGGGGG |
Jul |
17 |
2009 |
4:40:14.607196PM |
8 |
HHHHHHHHHHHHHHHHHHHHHHHH |
Jul |
17 |
2009 |
4:40:14.632152PM |
1 |
AAA |
Jul |
17 |
2009 |
4:40:14.465789PM |
2 |
BBBBBB |
Jul |
17 |
2009 |
4:40:14.488003PM |
3 |
CCCCCCCCC |
Jul |
17 |
2009 |
4:40:14.511749PM |
4 |
DDDDDDDDDDDD |
Jul |
17 |
2009 |
4:40:14.536653PM |
5 |
EEEEEEEEEEEEEEE |
Jul |
17 |
2009 |
4:40:14.559480PM |
6 |
FFFFFFFFFFFFFFFFFF |
Jul |
17 |
2009 |
4:40:14.583400PM |
7 |
GGGGGGGGGGGGGGGGGGGGG |
Jul |
17 |
2009 |
4:40:14.607196PM |
8 |
HHHHHHHHHHHHHHHHHHHHHHHH |
Jul |
17 |
2009 |
4:40:14.632152PM |
--------- ------------------------------ ----------------------------
9 IIIIIIIIIIIIIIIIIIIIIIIIIII Jul 17 2009 4:40:14.655184PM
10 JJJJJJJJJJJJJJJJJJJJJJJJJJJJJJ Jul 17 2009 4:40:14.678938PM
5 使用 for ase 格式将 transfer_example 数据传输到外部文件:
transfer table transfer_example to 'transfer_example-data.ase' for ase
(10 rows affected)
数据传输过程将在 spt_TableTransfer 中创建以下历史记录:
select id, sequence_id, end_code, ts_floor, ts_ceiling, row_count from spt_TableTransfer
where id = object_id('transfer_example')
id |
sequence_id |
end_code |
ts_floor ts_ceiling |
row_count |
|||
--------- |
----------- |
-------- |
------------- ----------- |
-------- |
|||
592002109 |
1 |
0 |
0 5309 |
10 |
6 禁用 transfer_example 的 transfer 属性以演示接收表无需启用 transfer 属性便可接收增量数据 (数据库必须启用 select into 才能运行 alter table):
alter table transfer_example set transfer table off
在 alter table 命令运行后, spt_TableTransfer 为空:
select id, sequence_id, end_code, ts_floor, ts_ceiling, row_count from spt_TableTransfer
where id = object_id('transfer_example')
id |
sequence_id |
end_code |
ts_floor ts_ceiling |
row_count |
|||
--------- |
----------- |
-------- |
------------- ----------- |
-------- |
(0 rows affected
7 更新 transfer_example 以将其字符数据设置为 no data 并指定其
bigdatetime 列中的日期和时间,以便可以检验表是否包含原始数据:
update transfer_example set f2 = 'no data',
f3 = 'Jan 1, 1900 12:00:00.000001AM'
(10 rows affected)
update 后, transfer_example 包含以下数据。
select * from transfer_example order by f1
f1 f2 f3
----------- ------------------------------ ---------------------------
1 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
2 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
3 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
4 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
5 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
6 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
7 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
8 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
9 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
10 |
no |
data |
Jan |
1 |
1900 |
12:00:00.000001AM |
(10 rows affected)
8 将示例数据从外部文件传输到 transfer_example 中。虽然 transfer_example 不再标记为增量传输,您仍可以将数据传输到表中。因为它具有唯 一主索引,所以传入行会替换现有数据,且不会产生重复键错误:
transfer table transfer_example from 'transfer_example-data.ase' for ase
(10 rows affected)
9 选择 transfer_example 中的所有数据,以检验传入数据是否替换了已 更改数据。 transfer 替换了 transfer_example.f2 和 transfer_example.f3 表的内容,这两个表包含原来为它们创建的数据,且存储在 transfer_example-data.ase 输出文件中。
select * from transfer_example order by f1
f1 f2 f3
------- ------------------------------ ---------------------------- 1 AAA Jul 17 2009 4:40:14.465789PM
2 BBBBBB Jul 17 2009 4:40:14.488003PM
3 |
CCCCCCCCC |
Jul |
17 |
2009 |
4:40:14.511749PM |
4 |
DDDDDDDDDDDD |
Jul |
17 |
2009 |
4:40:14.536653PM |
5 |
EEEEEEEEEEEEEEE |
Jul |
17 |
2009 |
4:40:14.559480PM |
6 |
FFFFFFFFFFFFFFFFFF |
Jul |
17 |
2009 |
4:40:14.583400PM |
7 |
GGGGGGGGGGGGGGGGGGGGG |
Jul |
17 |
2009 |
4:40:14.607196PM |
8 |
HHHHHHHHHHHHHHHHHHHHHHHH |
Jul |
17 |
2009 |
4:40:14.632152PM |
9 |
IIIIIIIIIIIIIIIIIIIIIIIIIII |
Jul |
17 |
2009 |
4:40:14.655184PM |
10 JJJJJJJJJJJJJJJJJJJJJJJJJJJJJJ Jul 17 2009 4:40:14.678938PM
10 为 transfer_example 重新启用 transfer,以便后续传输缺省使用以前的 参数:
alter table transfer_example set transfer table on
(10 rows affected)
使用新行替换数据
如果更改了一些行的键值,则在使用增量传输时,下一个表 transfer 会 将已更改的键数据行视为新数据,并且只替换其键未更改的行的数据。
1 transfer_example 使用 f1 列作为主键列。 Adaptive Server 使用此列确 定传入行是否包含新数据,或它是否替换现有行。
例如,如果通过向键为 3、 5 和 7 的行的各个值添加 10 来替换它们:
update transfer_example set f1 = f1 + 10
where f1 in (3,5,7) (3 rows affected)
transfer_example 现在包括键为 13、 15 和 17 的行,transfer 将其视为 新行。在向 transfer_example 中传输相同数据时, transfer 会插入键 为 3、 5 和 7 的行,并保留键为 13、 15 和 17 的行。
transfer table transfer_example from 'transfer_example-data.ase' for ase
(10 rows affected)
2 检验 f2 和 f3 的行 3 中的数据是否与行 13 中的数据相同,行 5 中的
数据是否与行 15 中的数据相同,行 7 中的数据是否与行 17 中的数 据相同:
select * from transfer_example order by f1
f1 f2 f3
------- ------------------------------ ---------------------------- 1 AAA Jul 17 2009 4:40:14.465789PM
2 |
BBBBBB |
Jul |
17 |
2009 |
4:40:14.488003PM |
3 |
CCCCCCCCC |
Jul |
17 |
2009 |
4:40:14.511749PM |
4 |
DDDDDDDDDDDD |
Jul |
17 |
2009 |
4:40:14.536653PM |
5 |
EEEEEEEEEEEEEEE |
Jul |
17 |
2009 |
4:40:14.559480PM |
6 |
FFFFFFFFFFFFFFFFFF |
Jul |
17 |
2009 |
4:40:14.583400PM |
7 |
GGGGGGGGGGGGGGGGGGGGG |
Jul |
17 |
2009 |
4:40:14.607196PM |
8 |
HHHHHHHHHHHHHHHHHHHHHHHH |
Jul |
17 |
2009 |
4:40:14.632152PM |
9 |
IIIIIIIIIIIIIIIIIIIIIIIIIII |
Jul |
17 |
2009 |
4:40:14.655184PM |
10 |
JJJJJJJJJJJJJJJJJJJJJJJJJJJJJJ |
Jul |
17 |
2009 |
4:40:14.678938PM |
13 |
CCCCCCCCC |
Jul |
17 |
2009 |
4:40:14.511749PM |
15 |
EEEEEEEEEEEEEEE |
Jul |
17 |
2009 |
4:40:14.559480PM |
17 |
GGGGGGGGGGGGGGGGGGGGG |
Jul |
17 |
2009 |
4:40:14.607196PM |
(13 rows affected)
3 将 transfer_example 再次传输出来:传输所有的 13 行。 Adaptive Server 将传输进来的键为 3、 5 和 7 的行视为新行,因为它们替换了 现有行 (此示例使用跟踪 ID 值 101):
transfer table transfer_example to 'transfer_example-data-01.ase' for ase
with tracking_id = 101 (13 rows affected)
4 修改行以显示增量 transfer 只传输上一次传输之后修改的行 (此更 新影响 3 行)。
update transfer_example
set f3 = current_bigdatetime() where f1 > 10
(3 rows affected)
5 将表再次传输出来以检验只传输了 3 个已更改行。无需指定 for ase:
Adaptive Server 将上一次传输中设置的此参数用作缺省值。
transfer table transfer_example to 'transfer_example-data-02.ase' with tracking_id = 102
(3 rows affected)
6 使用步骤 3 中的 tracking_id 查看传输信息:
select id, sequence_id, end_code, ts_floor, ts_ceiling, row_count from spt_TableTransfer
where id = object_id('transfer_example') and tracking_id = 101
id sequence_id end_code ts_floor ts_ceiling row_count
----------- ----------- -------- -------------------- ------ |
||
-------------- |
||
592002109 3 |
0 |
5309 5716 |
13 |
Sybase SQL Anywhere数据库恢复工具ReadASADB:
之前就已经研发成功了能够从Sybase SQL Anywhere的DB文件中恢复数据的工具: ReadASADB。此工具支持ASA v5.0, v6.0, v7.0, v8.0, v9.0, v10.0, v11.0, v12.0, v16.0, v17.0等版本。
能够从损坏的SQL Anywhere数据文件(.db)和UltraLite数据文件(.udb)上提取数据的非常规恢复工具。
恢复Sybase SQL Anywhere的工具在国内处于领先水平。
Sybase SQL Anywhere数据库恢复工具ReadASADB功能
能够从损坏的SQL Anywhere数据文件(.db)和UltraLite数据文件(.udb)上提取数据的非常规恢复工具
- 适用于所有的SQL Anywhere版本 包括:5.x,6.x,7.x,8.x,9.x,10.x,11.x,12.x,16.x,17.x
- 适用于所有的UltraLite版本
- 能够恢复出来表结构和数据
- 能够恢复自定义数据类型
- 能够恢复存储过程等对象的语法
- 能够导出到目标数据库
- 能够导出到SQL文件并生成导入脚本
- 支持多种字符集,包括:cp850、cp936、gb18030、utf8等
- 能够恢复未加密或者简单加密类型的数据
- 简单易用
- 限制:不支持AES加密的数据文件
SQL Anywhere数据库非常规恢复工具ReadASADB使用介绍
Sybase SQL Anywhere数据库恢复工具ReadASADB适用场景
各种误操作:
- 误截断表(truncate table)
- 误删除表(drop table)
- 错误的where条件误删数据
- 误删除db或log文件
- 误删除表中的字段
Sybase SQL Anywhere数据库恢复工具ReadASADB的应用场景:
1.因为物理磁盘故障、操作系统、系统软件方面或者掉电等等原因导致的Sybase SQL Anywhere数据库无法打开的情况;
2.误操作,包括truncate table,drop table,不正确的where条件导致的误删除等;
Sybase SQL Anywhere无法打开时,比较常见的错误是:Assertion failed。
如:
1、Internal database error *** ERROR *** Assertion failed:201819 (8.0.1.2600) Checkpoint log: invalid bitmap page -- transaction rolled back
2、Internal database error *** ERROR *** Assertion failed:201819 (8.0.1.2600) Page number on page does not match page requested -- transaction rolled back
3、Internal database error *** ERROR *** Assertion failed:200502 (9.0.2.2451) Checksum failure on page 23 -- transaction rolled back
4、File is shorter than expected
5、Internal database error *** ERROR *** Assertion failed: 201116 Invalid free list index page found while processing checkpoint log -- transaction rolled back
6、*** ERROR *** Assertion failed: 51901 Page for requested record not a table page or record not present on page
7、*** ERROR *** Assertion failed: 201417 (7.0.4.3541) Invalid count or free space offset detected on a table page
8、Internal database error *** ERROR *** Assertion failed: 201425 (8.0.3.5594) Invalid count or free space offset detected on a free list page -- transaction rolled back.
9、Internal database error *** ERROR *** Assertion failed: 100702 (8.0.1.2600) Unable to modify indexes for a row referenced in rollback log -- transaction rolled back
Sybase ASE数据库恢复工具READSYBDEVICE:
一个不依赖数据库管理系统、直接从Sybase数据库设备文件上提取数据的业内领先的恢复工具!能够从损坏的Sybase ASE设备文件(.dat)上提取数据的非常规恢复工具。
Sybase ASE数据库恢复工具READSYBDEVICE的主要功能:
- 被勒索病毒加密数据文件及备份文件情况下的恢复;
- 系统崩溃只剩下数据文件的情况下的恢复,甚至数据库文件不存在而只有损坏的备份文件情况下的恢复;
- 因断电、硬盘坏道等造成数据库文件损坏情况下的恢复;
- delete数据恢复、误update数据恢复、误删除表(drop)恢复、误truncate表恢复 等;
- 各种Sybase内部系统表损坏、索引错误的修复;
- master数据库损坏而无法正常运行情况下的恢复;
- Sybase数据库被标记为可疑,不可用等情况的恢复;
- Sybase数据库中数据文件内部出现坏块情况下的恢复;
- Sybase数据库无数据文件但有日志文件的情况下的恢复;
- Sybase数据库只有数据文件无任何日志文件的情况下的恢复;
- Sybase数据文件被误删除情况下的碎片提取恢复;
- 磁盘阵列上的Sybase数据库被误格式化情况下的数据库恢复;
- 数据库sysobjects等系统表损坏无法正常应用情况下的恢复;
- Sybase数据库还原数据库出现失败情况下的恢复;
- Sybase数据库只剩下损坏的备份文件情况下的恢复。
Sybase ASE数据库恢复工具READSYBDEVICE支持的版本:
Sybase ASE 11.0.x,11.5.x,11.9.x,12.0.x,12.5.x,15.0.x,15.5.x,15.7.x,16.0.xSQL Server数据库恢复工具SQLRescue:
一个不依赖数据库管理系统、直接从SQL Server数据库文件上提取数据的业内领先的恢复工具!能够从损坏的SQL Server数据库文件(.mdf)上提取数据的非常规恢复工具。
SQL Server数据库恢复工具SQLRescue的主要功能:
- 系统崩溃只剩下数据文件的情况下的恢复,即无日志文件或者日志文件损坏情况下的恢复;
- 断电导致数据库文件损坏情况下的恢复;
- 硬盘坏道造成数据库损坏情况下的恢复;
- 数据文件内部存在坏页情况下的恢复;
- 企业管理器误删除数据表记录,管理软件误删除数据表记录的恢复;
- 并闩锁错误、格式化、误删除后导致软件不能使用的情况;
- 无法读取并闩锁页sysindexes失败情况下的修复;
- 数据文件被误删除情况下的碎片提取恢复;
- 系统表损坏、索引错误、误删除数据库表、删除记录的数据找回;
- master数据库损坏而无法正常运行情况下的恢复;
- 数据文件无法附加情况下的数据恢复;
- 数据库被标记为可疑,质疑,不可用等情况的恢复;
- 数据库sysobjects等系统表损坏情况下的恢复;
- 数据被误(drop、delete、truncate)删除表数据的恢复,误update后的数据恢复等;
- 还原时报一致性错误,错误823等情况下的数据恢复,各种错误提示的数据库文件修复;
- 数据库被误格式化等情况下的数据库恢复;
- 日志收缩造成数据库损坏情况下的恢复;
- 仅剩损坏的备份文件情况下的恢复。
SQL Server数据库恢复工具SQLRescue技术特点:
只要SQL Server数据库的数据文件存在,我们就有办法帮您从数据文件中找回重要数据。- 从数据文件中直接恢复数据
- 不能附加时直接恢复数据并生成新的数据库
- 系统表损坏的数据库修复
- 快速修复SQL 823错误、连接中断错误
SQL Server数据库恢复工具SQLRescue支持的版本:
Microsoft SQL Server 7.0, 2000, 2005, 2008, 2008R2, 2012, 2014, 2016, 2017,2019。+-------------------------------------华丽的分割线-------------------------------------------------------------------------