如何用Python抓取AWS的日志数据
这篇文章给大家介绍如何用Python抓取AWS的日志数据,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
成都创新互联坚持“要么做到,要么别承诺”的工作理念,服务领域包括:成都做网站、网站建设、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的海曙网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!
如今是云的时代,许多公司都把自己的IT架构部署在基础架构云(IaaS)上。著名的IaaS提供商有亚马逊,微软(Azure),IBM等,国内也有诸如阿里云等。这里亚马逊毫无疑问是该市场的领军者。
AWS提供了非常多的服务,领先了竞争对手一大截。并且AWS提供非常丰富的API,其API基于Rest,所以很容易被不同的语言的平台来调用。
在如今的大数据时代,利用数据在做决策是大数据的核心价值,AWS提供了许多服务来获取其运行数据cloudtrail和cloudwatch是经常被用到的两个。CloudTrail是对AWS的所有API调用的日志,CloudWatch是监控AWS服务的性能数据。(新出的Config服务可用于监控AWS的资源变化)
今天我们来看看如何使用Python(Boto AWS的开源Python SDK)来自动配置ClouTrail的服务并获取日志内容。
我们先来看看CloudTrail的概念和相关的配置。
S3 Bucket
在打开CloudTrail的服务时,需要指定一个相关的S3的Bucket,S3是亚马逊提供的存储服务,你可以把它当作一个基于云的文件系统。CloudTrail的API调用日志,会以压缩文件的形式,存储在你指定的Bucket里。
SNS
SNS是亚马逊提供的通知服务,该服务使用的是订阅/发布(Subsrcibe/Publish)的模式。在创建CloudTrail的时候,可以关联一个SNS的Topic(可选),这样做的好处是当有API调用时,可以第一时间得到通知。可以使用不同的客户端来订阅SNS的通知,例如Email,Mobile的Notification Service,SQS等
SQS
SQS是亚马逊提供的队列服务,在本文中,我们使用SQS订阅SNS的的内容,这样我们的Python程序就可以从SQS的队列中获取相应的通知。
配置CloudTrail
首先我们需要创建SNS,并指定相应的策略。代码如下:
import boto.sns import json key_id='yourawskeyid' secret_key='yourawssecretkey' region_name="eu-central-1" trail_topic_name="topicABC" sns_policy_sid="snspolicy0001" sns_conn = boto.sns.connect_to_region(region_name, aws_access_key_id=key_id, aws_secret_access_key=secret_key) sns_topic = sns_conn.create_topic(trail_topic_name) # Get ARN of SNS topic sns_arn = sns_topic['CreateTopicResponse']['CreateTopicResult']['TopicArn'] # Add related policy attrs = sns_conn.get_topic_attributes(sns_arn) policy = attrs['GetTopicAttributesResponse']['GetTopicAttributesResult']['Attributes']['Policy'] policy_obj = json.loads(policy) statements = policy_obj['Statement'] default_statement = statements[0] new_statement = default_statement.copy() new_statement["Sid"] = sns_policy_sid new_statement["Action"] = "SNS:Publish" new_statement["Principal"] = { "AWS": [ "arn:aws:iam::903692715234:root", "arn:aws:iam::035351147821:root", "arn:aws:iam::859597730677:root", "arn:aws:iam::814480443879:root", "arn:aws:iam::216624486486:root", "arn:aws:iam::086441151436:root", "arn:aws:iam::388731089494:root", "arn:aws:iam::284668455005:root", "arn:aws:iam::113285607260:root" ] } new_statement.pop("Condition", None) statements.append(new_statement) new_policy = json.dumps(policy_obj) sns_conn.set_topic_attributes(sns_arn,"Policy",new_policy)
CloudTrail是和区域(Region)相关的,不同的Region有不同的CloudTrail服务,所以,在创建对应的SNS时,需要保证使用同一个Region。
这里要注意的是我们创建了新的policy来使得CloudTrail拥有向我们创建的SNS发布消息(Action=“SNS:Publish”)的权限。我们的做法是从缺省的策略中拷贝了一份,修改了相应的Action和Sid(随便取一个不重复的名字),Principal部分是一个缺省的account的列表,这里是硬编码,AWS有可能会修改该列表的值,但在当前环境下,该值是固定的。最后移除Condition的值。把新创建的Policy片段添加到原来的Policy中就好了。
然后我们需要创建一个SQS的队列,并订阅我们创建的SNS的Topic。这一步相对比较简单。
import boto.sqs sqs_queue_name="sqs_queue" sqs_conn = boto.sqs.connect_to_region(region_name, aws_access_key_id=key_id, aws_secret_access_key=secret_key) sqs_queue = sqs_conn.create_queue(sqs_queue_name) sns_conn.subscribe_sqs_queue(sns_arn, sqs_queue)
然后,我们需要创建一个S3的Bucket用来存储CloudTrail产生的日志文件。同样的,需要指定响应的策略以保证CloudTrail能够有权限写入对应的日志文件。
import boto bucket_name="bucket000" policy_sid="testpolicy000" s3_conn = boto.connect_s3(aws_access_key_id=key_id,aws_secret_access_key=secret_key) bucket = s3_conn.create_bucket(bucket_name) bucket_policy = '''{ "Version": "2012-10-17", "Statement": [ { "Sid": "%Sid%GetPolicy", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::903692715234:root", "arn:aws:iam::035351147821:root", "arn:aws:iam::859597730677:root", "arn:aws:iam::814480443879:root", "arn:aws:iam::216624486486:root", "arn:aws:iam::086441151436:root", "arn:aws:iam::388731089494:root", "arn:aws:iam::284668455005:root", "arn:aws:iam::113285607260:root" ] }, "Action": "s3:GetBucketAcl", "Resource": "arn:aws:s3:::%bucket_name%" }, { "Sid": "%Sid%PutPolicy", "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::903692715234:root", "arn:aws:iam::035351147821:root", "arn:aws:iam::859597730677:root", "arn:aws:iam::814480443879:root", "arn:aws:iam::216624486486:root", "arn:aws:iam::086441151436:root", "arn:aws:iam::388731089494:root", "arn:aws:iam::284668455005:root", "arn:aws:iam::113285607260:root" ] }, "Action": "s3:PutObject", "Resource": "arn:aws:s3:::%bucket_name%/*", "Condition": { "StringEquals": { "s3:x-amz-acl": "bucket-owner-full-control" } } } ] }''' bucket_policy = bucket_policy.replace("%bucket_name%",bucket_name) bucket_policy = bucket_policy.replace("%Sid%",policy_sid) bucket.set_policy(bucket_policy)
这里我们使用一个缺省的Policy文件,替换掉响应的字段就好了。
最后,我们创建CloudTrail的服务:
import boto.cloudtrail trail_name="Trailabc" log_prefix="log" cloudtrail_conn=boto.cloudtrail.connect_to_region(region_name, aws_access_key_id=key_id, aws_secret_access_key=secret_key) ##cloudtrail_conn.describe_trails() cloudtrail_conn.create_trail(trail_name,bucket_name, s3_key_prefix=log_prefix,sns_topic_name=trail_topic_name) cloudtrail_conn.start_logging(trail_name)
好了,现在CloudTrail已经配置好了,并且关联的SNS也被我们创建的SQS队列订阅,下面我们就可以抓取日志了
获取日志数据
每当有一个API调用,CloudTrail都会把响应的日志文件写入到S3我们创建的Bucket中,同时在我们在创建的SNS的topic中发布一条消息,因为我们使用SQS的队列订阅了该消息,所以我们可以通过读取SQS消息的方式来获得日志数据。
首先连接到SQS的队列,并从中读取消息
import boto.sqs sqs_queue_name="sqs_queue" sqs_conn = boto.sqs.connect_to_region(region_name, aws_access_key_id=key_id, aws_secret_access_key=secret_key) sqs_queue = sqs_conn.get_queue(sqs_queue_name) notifications = sqs_queue.get_messages()
然后我们从消息中获得响应的日志文件在S3中的地址,并利用该地址从S3中获得对应的日志文件
for notification in notifications: envelope = json.loads(notification.get_body()) message = json.loads(envelope['Message']) bucket_name = message['s3Bucket'] s3_bucket = s3_conn.get_bucket(bucket_name) for key in message['s3ObjectKey']: s3_file = s3_bucket.get_key(key) with io.BytesIO(s3_file.read()) as bfile: with gzip.GzipFile(fileobj=bfile) as gz: logjson = json.loads(gz.read())
logjson就是对应的日记内容的JSON格式。这里有一个例子
{ "Records": [{ "eventVersion": "1.0", "userIdentity": { "type": "IAMUser", "principalId": "EX_PRINCIPAL_ID", "arn": "arn:aws:iam::123456789012:user/Alice", "accessKeyId": "EXAMPLE_KEY_ID", "accountId": "123456789012", "userName": "Alice" }, "eventTime": "2014-03-06T21:22:54Z", "eventSource": "ec2.amazonaws.com", "eventName": "StartInstances", "awsRegion": "us-west-2", "sourceIPAddress": "205.251.233.176", "userAgent": "ec2-api-tools 1.6.12.2", "requestParameters": { "instancesSet": { "items": [{ "instanceId": "i-ebeaf9e2" }] } }, "responseElements": { "instancesSet": { "items": [{ "instanceId": "i-ebeaf9e2", "currentState": { "code": 0, "name": "pending" }, "previousState": { "code": 80, "name": "stopped" } }] } } }, ... additional entries ... ] }
你可以使用以上代码来监控所有的cloudtrail的日志,拿到的JSON格式的日志可以放在你的数据库(Mongo不错)中,然后利用你的BI工具做分析。
注意你也可以不创建SNS和SQS,直接扫描bucket的内容,这样做的好处是配置更简单,缺点是实时性比较差,扫面Bucket需要额外的计算,并且需要在本地保存文件扫描的状态,code会更加复杂。
利用CloudTrail的日志,你可以做很多事情,比如看看有没有非法的登陆,各个服务的使用频率,总之,当你有了足够多的数据,你就可以从中发现足够的价值。
关于如何用Python抓取AWS的日志数据就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
标题名称:如何用Python抓取AWS的日志数据
文章位置:http://azwzsj.com/article/ipepop.html