运行缓慢-为何-cmclean.sql (运行慢怎么回事)

教程大全 2025-07-16 02:55:15 浏览
cmclean.sql 慢”可能表示数据库清理脚本执行速度缓慢,需要优化。

cmclean.sql 慢

问题

在EBS R12.1关闭后,可能会有很多scheduled job进程仍在运行,这些信息保存在数据库中,为了清理这些数据并确保进程已结束,通常会运行cmclean.sql脚本,有时这个脚本运行得非常慢,这可能是由于 锁或死锁问题 导致的。

诊断资源与配置

1、 检查锁状态 :可以通过查询v$session视图来查看当前会话的锁状态,如果发现有ICM相关的会话处于锁定状态,可以使用alter system kill session命令将其杀死。

2、 调整并发管理器设置 :根据实际需要,可以更改并发管理器的并发数,通过打开forms界面,进入Concurrent -> Manager -> Define,使用F11键输入管理器名称(如Standard%),然后按ctrl+F11查询并点击workshift按钮设置并发数量。

3、 检查表结构 :对于目标库实例,检查其锁状态、慢SQL以及表结构,如果存在写入锁或慢SQL问题,可能需要调整目标库的写入策略或表结构。

运行步骤

1、在重新开启EBS之前,首先运行cmclean.sql脚本以清理concurrent manager的相关信息。

2、如果脚本运行缓慢,执行上述诊断步骤,特别是检查并处理任何可能的锁或死锁问题。

3、根据需要调整并发管理器的设置,以确保系统能够高效地处理并发任务。

4、如果问题依然存在,考虑进一步优化数据库性能,例如通过调整索引、优化查询语句或升级硬件资源。

相关问题与解答

1、 为什么cmclean.sql脚本运行缓慢?

cmclean.sql脚本运行缓慢通常是由于数据库中的锁或死锁问题导致的,当多个进程试图访问同一资源时,可能会发生冲突,导致某些进程被阻塞,如果数据库表结构不合理或存在大量未优化的查询语句,也可能导致脚本运行缓慢。

2、 如何解决cmclean.sql脚本运行缓慢的问题?

要解决cmclean.sql脚本运行缓慢的问题,首先需要识别并处理任何存在的锁或死锁问题,这可以通过查询v$session视图来完成,并使用alter system kill session命令来杀死阻塞的会话,检查并优化数据库表结构和查询语句,以提高数据库性能,根据实际需要调整并发管理器的设置,以确保系统能够高效地处理并发任务。

以上就是关于“ 运行缓慢 cmclean.sql 慢 ”的问题,朋友们可以点击主页了解更多内容,希望可以够帮助大家!


sql存储过程的执行

执行带参数的存储过程的方法如下:Exec sp_configure allow upDates,1--允许更新系统表。 exec _ChangeObjectOwnerBatch OldOwner,dbo以上是两个例子。 SQL Server中执行带参数的存储过程的方法是:EXEC 存储过程名字 参数1,参数2,数值参数EXEC 是一个关键字。 字符串参数使用单引号括起来,数值参数不需要使用单引号

SQL2000怎么恢复数据?

如果有备份那就恢复

没有去试试LogExplore

LogExplore 使用方法:安装后打开log explorer file=>attach log file->选择服务器和登陆方式->connect->选择数据库->attach->左面对话框中browse->view log->就可以看到log 记录,点击“View DDL Commands”里面就有很多drop table 命令点击下面的“undo”按钮是生成表结构的语句(CREATE table ....)点击下面的“Salvage”按钮是生成插入语句的(insert into ....)(以上lynx1111 提供)我是按照上述方法的“Salvage”来生成被删除表的Insert 语句,实际上用这个方法生成的SQL 脚本已经包含了CreateTable。 该过程速度大概用了8 个小时,当时觉得慢,后来相比恢复过程,这个速度简直快的不行。 最大的表脚本生成后超过1G。 生成所有的SQL 脚本后,防止万一,我将数据库停下,并把Date 文件夹的Log 和文件拷出来(怕破坏LOG 文件,没有使用数据库的备份方式备份),文件大小总共为5.7G此后开始进行正式的恢复工作。 新建一个数据库,先试着用SQL 查询分析器运行了一个小表的脚本,完全没有问题。 但后来发现导入比较大的SQL 脚本文件,查询分析器就报错了。 请教了realgz 得知logExplore r 本身对大脚本有良好支持,因此改用LogExplorer--》RunSQL Script 功能来运行脚本。 果然大文件也可以恢复了。 但开始运行后发现包含有ntext 字段的表恢复起来异常缓慢,打开一个包含nText 字段的表的恢复脚本发现里面使用writeText 来写入数据。 恢复一个30 万数据的表居然用了将近12小时的时间,而数据库中又有大量这样的表,为了加快数据,我又在几个机器上装了LogExplore r 加入恢复过程,终于经过3 天的时间,全部的表都搞的差不多了,不过恢复过程有少量的错误。 接下来我将几个机器的表导到同一个数据库中,不过此时恢复的表是没有包含索引、标识等扩展属性的,因此需要重新建立索引、标识、默认值以及触发器。 在建立主键的时候发现居然有数据重复。 。 。 没办法只好删除重复数据。 使用select distinct * into t_New from t_Old 可以删除重复数据,但遇到有ntext 字段的表是不能用这个方法的,最后只好用Delete From t_TableWhere ID IN (Select ID From t_Table a where (Select Count(*)From t_Table a where = ID ) > 1 )直接删除了有重复数据的记录经过72 小时的努力,99.9%的数据恢复。 并于4 月8 日晚上恢复运行网站。 这时候部分用户反映无法登陆,一查发现是有小部分数据丢失,也就是LogExplore r 里报错误的那些数据……没办法,我重新用UEdit 打开SQL 脚本,查找这些数据,发现还在,仔细一看发现,这些数据里都有部分内容里使用大量的回车, LogExplore r 无法识别,因此才出的错误。 呵呵,顾客是上帝,没办法,只好将用户表重新在本地恢复一次,遇到错误就记录下ID,然后再考出SQL 脚本到查询分析器运行(查询分析器可以运行)现在建立了维护计划,每个星期做一次完整备份。 另外操作数据库的流程也变的规范,防止此类事故出现************************************************************************************1、慎重使用Text/nText 字段2、LogExplore r 的脚本执行工具对付大文件很不错,但执行过程会对多个回车产生误判断3、有问题不要着急,上csdn 找高手帮忙,他们会很热心帮助你

oracle9i变的很慢,基本都是对一张表的增删改的操作.

1、增大SGA中Database buffer大小2、看看表空间、临时表空间、回滚段等的大小是否足够3、不要建太多的索引,因为索引与数据是同步维护的4、看看建表时的PCTUSED、PCTFREE等参数是否合适5、插入时加上指示器/*+append*/6、语句最好使用预解析,即带参数sql,减少数据库解析时间7、表上或列上不要建立太多约束8、查看锁状况,要及时提交数据修改

本文版权声明本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系本站客服,一经查实,本站将立刻删除。

发表评论

热门推荐