oracle数据如何日志,oracle怎么看日志

如何查看oracle的日志文件?

1、因为oracle运行在Linux系统下,首先,要连接Linux系统。

专注于为中小企业提供成都做网站、成都网站制作、成都外贸网站建设服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业平山免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了成百上千家企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。

2、切换到oracle安装用户下。 我的用户是 oracle。

3、运行oracle的环境变量,在oracle 的根目录下面,运行 soruce .bash_prfile 命令, 以便        输入相关命令。

4、运行命令: cd $ORACLE_HOME 进入oracle的安装目录。

5、在此输入命令: find -name listener.log ,查找监控日志文件。

6、运行命令 cd  到查看到的日志文件目录。

7、运行cat listener.log命令 查看日志文件。

如何查询Oracle数据库的操作日志

查看归档模式

conn /as sysdba

archive log list

如果数据库为归档模式的话,可以通过logmnr来进行挖掘日志文件查看这些信息的。如果是非归档模式。对不起无法查看了

开启后台进程跟踪,

设置参数(initsid.ora)

.backgroudn_dump_dest=目录名 -- 指定根踪文件存放的路径

.user_dmup_test=目录名 --指定用户信息跟踪文件的存放路径

.用户的跟踪文件(.trc), 用TKPROF 来格式化用户跟踪文件

SQL 语句跟踪即可。

.imed_statistics=true; --设置启用 sql_trace =true;

.user_dump_dest=目录 --指定跟踪文件的存放路径

.max_dump_file_size=5M --指定跟踪文件最大尺寸

.SQL_TRACE=TRUE;

.动态改变 :alter session set sql_trace=true;

或者打开生成的跟踪文件:

默认在..\oralce\admin\user\udump\*.trc,由于oralce 生成的*.trc 直接打开格式不规格,看得很累,可以用tkprof gk 来格式化 :c:\tkprof ora00001.trc a.txt

怎么获取oracle数据库变化日志

Oracle数据库诊断文件(日志)查看

Diagnostic File(诊断文件)

1:诊断文件的作用

Diagnostic files :

包含了后台遇见重大事件的信息。

被用于解析问题,

被用于日常管理日志文件。

2:诊断文件日志的分类

分为两类:

1: alterSID.log

-----background trace files (后台进程跟踪文件)

2: trace files ---

-----user trace file (用户trace 文件)

1:对于Background trace files文件的命名:

命名方式: SID_processname_PID.trc 对应解释 SID_进程名_进程号.trc

2: 对于user trace files 的文件命名为:

SID_ora_PID.trc 解释: SID_ora_进程号.trc

3:对于 alertSID.log 说明:

这个文件是为了记录: 1:记录一些操作命令

2:记录主要事件的结果

3:以及日常的操作信息

4:被用于诊断数据库错误

每一个entry 都有一个time stamp(时间戳)和它关联

该文件必须被ORACLE DBA管理

这个文件的位置在: BACKGROUND_DUMP_DEST

通过 show parameter dump 查看这个文件的位置:

这个文件中也包含数据库的启动信息相当于pfile或者spfile的内容。

用管理员登录:

2:下面是实战操作:

首先用sysdba登录后执行:

[sql]

SQL show parameter dump

NAME TYPE VALUE

------------------------------------ ----------- ------------------------------

background_core_dump string partial

background_dump_dest string d:\app\topwqp\diag\rdbms\orcl\

orcl\trace

core_dump_dest string d:\app\topwqp\diag\rdbms\orcl\

orcl\cdump

max_dump_file_size string unlimited

shadow_core_dump string none

user_dump_dest string d:\app\topwqp\diag\rdbms\orcl\

orcl\trace

可以看到这些文件的路径信息。

根据显式的信息我找到我的文件位置:

目录结构如下:

下面说一下如何才能记录信息到这些日志文件,需要一些开关,如果不开,记录的只是

一点点信息而已:

两种方式 能够让用户tracing

1:session 级别的:

使用如下命令:

ALTER SESSSION SET SQL_TRACE = TRUE

第二种是执行如下存储过程:

dbms_system.SET_SQL_TRACE_IN_SESSION

第二个方式是 instance级别的:

设置初始化参数: SQL_TRACE = TRUE

一般采用session级别的。因为设置instance级别的容易造成log文件过大;

可以通过alterSID.log文件中的信息制作pfile 或者spfile文件启动

数据库。

下面采用session级别的修改sql_trace为true即可在user_dump_dest中对应文件中看到相应的信息。

[sql]

SQL conn /as sysdba

已连接。

SQL alter session set sql_trace = true;

会话已更改。

执行过后:查看

orcl_ora_7188.trc文件信息 PS:如果不知道哪个文件就把这个目录下的全部删除,再执行sql就会看到生成的文件:

查看这个文件信息如下:

很详细的执行信息:

比如一个语句为:select * from dual

这个文件中会生成如下信息:

[plain]

*** 2013-06-13 22:58:20.776

=====================

PARSING IN CURSOR #1 len=18 dep=0 uid=0 oct=3 lid=0 tim=9184375464 hv=942515969 ad='232363f8' sqlid='a5ks9fhw2v9s1'

select * from dual

END OF STMT

PARSE #1:c=0,e=32,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=1,tim=9184375458

EXEC #1:c=0,e=50,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=1,tim=9184376205

FETCH #1:c=0,e=109,p=0,cr=3,cu=0,mis=0,r=1,dep=0,og=1,tim=9184376423

STAT #1 id=1 cnt=1 pid=0 pos=1 obj=115 op='TABLE ACCESS FULL DUAL (cr=3 pr=0 pw=0 time=0 us cost=2 size=2 card=1)'

FETCH #1:c=0,e=2,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=0,tim=9184376893

是对这个sql的执行的详细解读分析

下面贴上今天的部分执行的信息:

[plain]

*** 2013-06-13 22:58:20.776

=====================

PARSING IN CURSOR #1 len=18 dep=0 uid=0 oct=3 lid=0 tim=9184375464 hv=942515969 ad='232363f8' sqlid='a5ks9fhw2v9s1'

select * from dual

END OF STMT

PARSE #1:c=0,e=32,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=1,tim=9184375458

EXEC #1:c=0,e=50,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=1,tim=9184376205

FETCH #1:c=0,e=109,p=0,cr=3,cu=0,mis=0,r=1,dep=0,og=1,tim=9184376423

STAT #1 id=1 cnt=1 pid=0 pos=1 obj=115 op='TABLE ACCESS FULL DUAL (cr=3 pr=0 pw=0 time=0 us cost=2 size=2 card=1)'

FETCH #1:c=0,e=2,p=0,cr=0,cu=0,mis=0,r=0,dep=0,og=0,tim=9184376893

*** 2013-06-13 23:15:15.474

=====================

PARSING IN CURSOR #1 len=289 dep=0 uid=0 oct=3 lid=0 tim=10199053291 hv=2462394820 ad='232017e0' sqlid='7cfz5wy9caaf4'

SELECT NAME

NAME_COL_PLUS_SHOW_PARAM,DECODE(TYPE,1,'boolean',2,'string',3,'integer',4,'file',5,'number',

6,'big integer', 'unknown') TYPE,DISPLAY_VALUE

VALUE_COL_PLUS_SHOW_PARAM FROM V$PARAMETER WHERE UPPER(NAME) LIKE

UPPER(:NMBIND_SHOW_OBJ) ORDER BY NAME_COL_PLUS_SHOW_PARAM,ROWNUM

END OF STMT

PARSE #1:c=0,e=438,p=0,cr=0,cu=0,mis=1,r=0,dep=0,og=1,tim=10199053285

=====================

PARSING IN CURSOR #2 len=210 dep=1 uid=0 oct=3 lid=0 tim=10199056088 hv=864012087 ad='29162590' sqlid='96g93hntrzjtr'

select /*+ rule */ bucket_cnt, row_cnt, cache_cnt, null_cnt,

timestamp#, sample_size, minimum, maximum, distcnt, lowval, hival,

density, col#, spare1, spare2, avgcln from hist_head$ where obj#=:1 and

intcol#=:2

END OF STMT

PARSE #2:c=0,e=568,p=0,cr=0,cu=0,mis=1,r=0,dep=1,og=3,tim=10199056084

EXEC #2:c=0,e=1024,p=0,cr=0,cu=0,mis=1,r=0,dep=1,og=3,tim=10199057412

FETCH #2:c=0,e=30,p=0,cr=2,cu=0,mis=0,r=0,dep=1,og=3,tim=10199057533

STAT #2 id=1 cnt=0 pid=0 pos=1 obj=411 op='TABLE ACCESS BY INDEX ROWID HIST_HEAD$ (cr=2 pr=0 pw=0 time=0 us)'

STAT #2 id=2 cnt=0 pid=1 pos=1 obj=413 op='INDEX RANGE SCAN I_HH_OBJ#_INTCOL# (cr=2 pr=0 pw=0 time=0 us)'

=====================

PARSING IN CURSOR #2 len=210 dep=1 uid=0 oct=3 lid=0 tim=10199057848 hv=864012087 ad='29162590' sqlid='96g93hntrzjtr'

select /*+ rule */ bucket_cnt, row_cnt, cache_cnt, null_cnt,

timestamp#, sample_size, minimum, maximum, distcnt, lowval, hival,

density, col#, spare1, spare2, avgcln from hist_head$ where obj#=:1 and

intcol#=:2

END OF STMT

EXEC #2:c=0,e=25,p=0,cr=0,cu=0,mis=0,r=0,dep=1,og=3,tim=10199057844

FETCH #2:c=0,e=13,p=0,cr=2,cu=0,mis=0,r=0,dep=1,og=3,tim=10199058128

EXEC #1:c=0,e=7034,p=0,cr=4,cu=0,mis=1,r=0,dep=0,og=1,tim=10199060756

FETCH #1:c=15600,e=13882,p=0,cr=0,cu=0,mis=0,r=1,dep=0,og=1,tim=10199075783

FETCH #1:c=0,e=21,p=0,cr=0,cu=0,mis=0,r=5,dep=0,og=1,tim=10199076326

STAT #1 id=1 cnt=6 pid=0 pos=1 obj=0 op='SORT ORDER BY (cr=0 pr=0 pw=0 time=0 us cost=2 size=2115 card=1)'

STAT #1 id=2 cnt=6 pid=1 pos=1 obj=0 op='COUNT (cr=0 pr=0 pw=0 time=8 us)'

STAT #1 id=3 cnt=6 pid=2 pos=1 obj=0 op='HASH JOIN (cr=0 pr=0 pw=0 time=6 us cost=1 size=2115 card=1)'

STAT #1 id=4 cnt=35 pid=3 pos=1 obj=0 op='FIXED TABLE FULL X$KSPPI (cr=0 pr=0 pw=0 time=70 us cost=0 size=81 card=1)'

STAT #1 id=5 cnt=1915 pid=3 pos=2 obj=0 op='FIXED TABLE FULL X$KSPPCV (cr=0 pr=0 pw=0 time=19 us cost=0 size=203400 card=100)'

关于alter_SID.log中的内容如下: 今天的:

注意这个文件中包含Oracle启动的参数信息:可以利用这些信息配置spfile或者pfile文件尝试用这个配置的文件启动数据库也可以的

[plain]

Thu Jun 13 22:13:43 2013

Starting ORACLE instance (normal)

LICENSE_MAX_SESSION = 0

LICENSE_SESSIONS_WARNING = 0

Picked latch-free SCN scheme 2

Using LOG_ARCHIVE_DEST_1 parameter default value as D:\app\topwqp\product\11.1.0\db_1\RDBMS

Using LOG_ARCHIVE_DEST_10 parameter default value as USE_DB_RECOVERY_FILE_DEST

Autotune of undo retention is turned on.

IMODE=BR

ILAT =18

LICENSE_MAX_USERS = 0

SYS auditing is disabled

Starting up ORACLE RDBMS Version: 11.1.0.6.0.

Using parameter settings in server-side spfile D:\APP\TOPWQP\PRODUCT\11.1.0\DB_1\DATABASE\SPFILEORCL.ORA

System parameters with non-default values:

processes = 150

memory_target = 412M

control_files = "D:\APP\TOPWQP\ORADATA\ORCL\CONTROL01.CTL"

control_files = "D:\APP\TOPWQP\ORADATA\ORCL\CONTROL02.CTL"

control_files = "D:\APP\TOPWQP\ORADATA\ORCL\CONTROL03.CTL"

db_block_size = 8192

compatible = "11.1.0.0.0"

db_recovery_file_dest = "D:\app\topwqp\flash_recovery_area"

db_recovery_file_dest_size= 2G

fast_start_mttr_target = 0

undo_tablespace = "UNDOTBS1"

remote_login_passwordfile= "EXCLUSIVE"

db_domain = ""

dispatchers = "(PROTOCOL=TCP) (SERVICE=orclXDB)"

audit_file_dest = "D:\APP\TOPWQP\ADMIN\ORCL\ADUMP"

audit_trail = "DB"

db_name = "orcl"

open_cursors = 300

diagnostic_dest = "D:\APP\TOPWQP"

Thu Jun 13 22:13:46 2013

PMON started with pid=2, OS id=1888

Thu Jun 13 22:13:46 2013

VKTM started with pid=3, OS id=4296 at elevated priority

Thu Jun 13 22:13:46 2013

DIAG started with pid=4, OS id=6804

VKTM running at (20)ms precision

Thu Jun 13 22:13:46 2013

oracle如何查看日志文件

oracle日志查看

一.oracle日志的路径:

登录:sqlplus

"/as

sysdba"

查看路径:sql

select

*

from

v$logfile;

sql

select

*

from

v$logfile;(#日志文件路径)

二.oracle日志文件包含哪些内容:(日志的数量可能略有不同)

control01.ctl

example01.dbf

redo02.log

sysaux01.dbf

undotbs01.dbf

control02.ctl

redo03.log

system01.dbf

users01.dbf

control03.ctl

redo01.log

shttest.dbf

temp01.dbf

三.oracle日志的查看方法:

sqlselect

*

from

v$sql

(#查看最近所作的操作)

sqlselect

*

fromv

$sqlarea(#查看最近所作的操作)

oracle

数据库的所有更改都记录在日志中,从目前来看,分析oracle日志的唯一方法就是使用oracle公司提供的logminer来进行,因为原始的日志信息我们根本无法看懂,oracle8i后续版本中自带了logminer,而logminer就是让我们看懂日志信息的工具,通过这个工具可以:查明数据库的逻辑更改,侦察并更正用户的误操作,执行事后审计,执行变化分析。

oracle数据库的警告日志如何查看

测试环境中出现了一个异常的告警现象:一条告警通过 Thanos Ruler 的 HTTP 接口观察到持续处于 active 状态,但是从 AlertManager 这边看这条告警为已解决状态。按照 DMP 平台的设计,告警已解决指的是告警上设置的结束时间已经过了当前时间。一条发送至 AlertManager 的告警为已解决状态有三种可能:1. 手动解决了告警2. 告警只产生了一次,第二次计算告警规则时会发送一个已解决的告警3. AlertManager 接收到的告警会带着一个自动解决时间,如果还没到达自动解决时间,则将该时间重置为 24h 后首先,因为了解到测试环境没有手动解决过异常告警,排除第一条;其次,由于该告警持续处于 active 状态,所以不会是因为告警只产生了一次而接收到已解决状态的告警,排除第二条;最后,告警的告警的产生时间与自动解决时间相差不是 24h,排除第三条。那问题出在什么地方呢?

分析

下面我们开始分析这个问题。综合第一节的描述,初步的猜想是告警在到达 AlertManager 前的某些阶段的处理过程太长,导致告警到达 AlertManager 后就已经过了自动解决时间。我们从分析平台里一条告警的流转过程入手,找出告警在哪个处理阶段耗时过长。首先,一条告警的产生需要两方面的配合:

metric 数据

告警规则

将 metric 数据输入到告警规则进行计算,如果符合条件则产生告警。DMP 平台集成了 Thanos 的相关组件,数据的提供和计算则会分开,数据还是由 Prometheus Server 提供,而告警规则的计算则交由 Thanos Rule(下文简称 Ruler)处理。下图是 Ruler 组件在集群中所处的位置:

看来,想要弄清楚现告警的产生到 AlertManager 之间的过程,需要先弄清除 Ruler 的大致机制。官方文档对 Ruler 的介绍是:You can think of Rule as a simplified Prometheus that does not require a sidecar and does not scrape and do PromQL evaluation (no QueryAPI)。

不难推测,Ruler 应该是在 Prometheus 上封装了一层,并提供一些额外的功能。通过翻阅资料大致了解,Ruler 使用 Prometheus 提供的库计算告警规则,并提供一些额外的功能。下面是 Ruler 中告警流转过程:

请点击输入图片描述

请点击输入图片描述

首先,图中每个告警规则 Rule 都有一个 active queue(下面简称本地队列),用来保存一个告警规则下的活跃告警。

其次,从本地队列中取出告警,发送至 AlertManager 前,会被放入 Thanos Rule Queue(下面简称缓冲队列),该缓冲队列有两个属性:

capacity(默认值为 10000):控制缓冲队列的大小,

maxBatchSize(默认值为 100):控制单次发送到 AlertManager 的最大告警数

了解了上述过程,再通过翻阅 Ruler 源码发现,一条告警在放入缓冲队列前,会为其设置一个默认的自动解决时间(当前时间 + 3m),这里是影响告警自动解决的开始时间,在这以后,有两个阶段可能影响告警的处理:1. 缓冲队列阶段2. 出缓冲队列到 AlertManager 阶段(网络延迟影响)由于测试环境是局域网环境,并且也没在环境上发现网络相关的问题,我们初步排除第二个阶段的影响,下面我们将注意力放在缓冲队列上。通过相关源码发现,告警在缓冲队列中的处理过程大致如下:如果本地队列中存在一条告警,其上次发送之间距离现在超过了 1m(默认值,可修改),则将该告警放入缓冲队列,并从缓冲队列中推送最多 maxBatchSize 个告警发送至 AlertManager。反之,如果所有本地队列中的告警,在最近 1m 内都有发送过,那么就不会推送缓冲队列中的告警。也就是说,如果在一段时间内,产生了大量重复的告警,缓冲队列的推送频率会下降。队列的生产方太多,消费方太少,该队列中的告警就会产生堆积的现象。因此我们不难猜测,问题原因很可能是是缓冲队列推送频率变低的情况下,单次推送的告警数量太少,导致缓冲队列堆积。下面我们通过两个方面验证上述猜想:首先通过日志可以得到队列在大约 20000s 内推送了大约 2000 次,即平均 10s 推送一次。结合缓冲队列的具体属性,一条存在于队列中的告警大约需要 (capacity/maxBatchSize)*10s = 16m,AlertManager 在接收到告警后早已超过了默认的自动解决时间(3m)。其次,Ruler 提供了 3 个 metric 的值来监控缓冲队列的运行情况:

thanos_alert_queue_alerts_dropped_total

thanos_alert_queue_alerts_pushed_total

thanos_alert_queue_alerts_popped_total

通过观察 thanos_alert_queue_alerts_dropped_total 的值,看到存在告警丢失的总数,也能佐证了缓冲队列在某些时刻存在已满的情况。

解决通过以上的分析,我们基本确定了问题的根源:Ruler 组件内置的缓冲队列堆积造成了告警发送的延迟。针对这个问题,我们选择调整队列的 maxBatchSize 值。下面介绍一下这个值如何设置的思路。由于每计算一次告警规则就会尝试推送一次缓冲队列,我们通过估计一个告警数量的最大值,得到 maxBatchSize 可以设置的最小值。假设你的业务系统需要监控的实体数量分别为 x1、x2、x3、...、xn,实体上的告警规则数量分别有 y1、y2、y3、...、yn,那么一次能产生的告警数量最多是(x1 * y2 + x2 * y2 + x3 * y3 + ... + xn * yn),最多推送(y1 + y2 + y3 + ... + yn)次,所以要使缓冲队列不堆积,maxBatchSize 应该满足:maxBatchSize = (x1 * y2 + x2 * y2 + x3 * y3 + ... + xn * yn) / (y1 + y2 + y3 + ... + yn),假设 x = max(x1,x2, ...,xn), 将不等式右边适当放大后为 x,即 maxBatchSize 的最小值为 x。也就是说,可以将 maxBatchSize 设置为系统中数量最大的那一类监控实体,对于 DMP 平台,一般来说是 MySQL 实例。

注意事项

上面的计算过程只是提供一个参考思路,如果最终计算出该值过大,很有可能对 AlertManager 造成压力,因而失去缓冲队列的作用,所以还是需要结合实际情况,具体分析。因为 DMP 将 Ruler 集成到了自己的组件中,所以可以比较方便地对这个值进行修改。如果是依照官方文档的介绍使用的 Ruler 组件,那么需要对源码文件进行定制化修改。


标题名称:oracle数据如何日志,oracle怎么看日志
网站链接:http://azwzsj.com/article/dsejogs.html