[深入浅出]深入浅出、深入深出、浅入浅出、浅入深出
[深入浅出]深入浅出、深入深出、浅入浅出、
浅入深出
篇一 : 深入浅出、深入深出、浅入浅出、浅入深出
在网上读到这样一段话:世界上有四种老师,第一种是讲课能深入浅出,很深奥的道理,他能讲得浅显易懂,很受学生的欢迎,这是最好的老师;第二种是深入深出,这样的老师很有学问,但缺乏好的教学方法,不能把深奥的学问讲得浅显易懂,学生学起来就费劲,这也算是好老师;第三种是浅入浅出,这样的老师本身学问不深,但却实事求是,把自己懂的东西讲出来,这也能基本保证质量,也算是个好老师;最糟糕的是第四种老师,浅入深出,本身并无多大学问,却装腔作势,把本来很浅近的道理讲得玄而又玄,让人听不懂。
对比一下,我大概属于第三种。一般我搞不懂的东西,我会避开不讲,只讲自己弄懂的东西;弄懂多少就讲多少。学生问我问题,我会结合自己的切身经历告诉他自己碰到同样的问题会怎么做,甚至恨不得亲自示范给他/她看。
我知道有一种老师,他们总是能站在更高的地方给学生方法论方面的指导;我也见过另一种老师,他们对学生提出的问题总不正面回答,而是大谈一番似是而非不着边际的话题。
譬如学生问:老师,我想去云南自助游,应该怎么走,我会告诉他,我去过丽江,当年我是怎么走的。但学生也许想去的是卢沽湖,
我会说那里我没去过,但你可以先到丽江再打听怎样去卢沽湖,或者参照我当年的方法去寻找路线;另一种老师会这样回答:你可以到某某网站或某本书上去了解去那里的路线,并告诉他如何找到那个网站或那本书和出行的
;还有一种老师会说:我写过一篇《自助游的兴起、演变、未来趋势和宏观管理战略》的文章,反响很大,你去找来看看吧,看完就知道怎么去了。呵呵!
篇二 : 深入浅出WinDbg——利用快速定位错误
Sharepoint代码的某方法LoadLines中使用了SPSecurity.RunWithElevatedPrivileges
此方法两次调用了Common.GetLookupValue,并且问题可能出在这里。[,
由于开发环境没有VS2008,所以我们使用WinDbg进行调试。针对这种情况有两种方式:
1 Load SOS
2 通过快速捕捉异常的方式来快速定位错误
1 打开WinDbg,附加对应的w3wp.exe进程。
2 刷新出错页面,运行命令!u eip 以反汇编的方式来查看内存
3 通过搜索>>>快速定位出错点,然后分析出错的上下文,定位可能的出错语句位置:
000007ff`013003f3 e8c8ddffff call 000007ff`012fe1c0 ,
mdToken: 060000d0)
4 运行命令r,查看寄存器指针引用的值为空引起的
1 查看!u eip的结果,搜索关键字Common.GetLookupValue
000007ff`013003f3 e8c8ddffff call 000007ff`012fe1c0 ,
mdToken: 060000d0)
2 bp 000007ff013003f3即可设定断点。
参考下载:
篇三 : Android深入浅出之Binder机制
Android深入浅出之Binder机制
一说明
Android系统最常见也是初学者最难搞明白的就是Binder了,很多很多的Service就是通过Binder机制来和客户端通讯交互的。就是一个和普通的C++应用程序一样的东西。
MediaService的源码文件在:
framework\base\Media\MediaServer\Main_mediaserver.cpp中。让我们看看到底是个什么玩意儿~
int main
{
//FT,就这么简单,,
//获得一个ProcessState实例
spproc);
//得到一个ServiceManager对象
sp sm =defaultServiceManager;
MediaPlayerService::instantiate;//初始化MediaPlayerService服务
ProcessState::self->startThreadPool;//看名字,启动Process的线程池,
IPCThreadState::self->joinThreadPool;//将自己加入到刚才的线程池,
}
其中,我们只分析MediaPlayerService。
这么多疑问,看来我们只有一个个函数深入分析了。不过,这里先简单介绍下sp这个东西。
sp,究竟是smartpointer还是strong pointer呢,其实我后来发现不用太关注这个,就把它当做一个普通的指针看待,即sp======》IServiceManager*吧。sp是google搞出来的为了方便C/C++程序员管理指针的分配和释放的一套方法,类似JAVA的什么WeakReference
之类的。我个人觉得,要是自己写程序的话,不用这个东西也成。
好了,以后的分析中,sp就看成是XXX*就可以了。
第一个调用的函数是ProcessState::self,然后赋值给了proc变
量,程序运行完,proc会自动delete内部的
,所以就自动释放了先前分配的资源。
ProcessState位置在framework\base\libs\binder\ProcessState.cpp
spProcessState::self
{
if return gProcess;---->第一次进来肯定不走这儿
AutoMutex _l;--->锁保护
if gProcess = newProcessState;--->创建一个ProcessState对象
returngProcess;--->看见没,这里返回的是指针,但是函数返回的是sp,所以
//把sp看成是XXX*是可以的
}
再来看看ProcessState构造函数
//这个构造函数看来很重要
ProcessState::ProcessState
: mDriverFD)----->Android很多代码都是这么写的,稍不留神就没看见这里调用了一个很重要的函数
, mVMStart//映射内存的起始地址
, mManagesContexts
, mBinderContextCheckFunc
, mBinderContextUserData
, mThreadPoolStarted
, mThreadPoolSeq
{
if {
//BIDNER_VM_SIZE定义为 - 1M-8K
mVMStart = mmap;//这个需要你自己去man mmap的用法了,不过大概意思就是
//将fd映射为内存,这样内存的memcpy等操作就相当于write/read了
}
...
}
最讨厌这种在构造list中添加函数的写法了,常常疏忽某个变量的初始化是一个函数调用的结果。
open_driver,就是打开/dev/binder这个设备,这个是android在内核中搞的一个专门用于完成
进程间通讯而设置的一个虚拟的设备。BTW,说白了就是内核的提供的一个机制,这个和我们用socket加NET_LINK方式和内核通讯是一个道理。
static intopen_driver
{
int fd = open;//打开/dev/binder
if {
....
size_t maxThreads = 15;
//通过ioctl方式告诉内核,这个fd支持最大线程数是15个。
result = ioctl; }
returnfd;
好了,到这里Process::self就分析完了,到底干什么了呢,
l 打开/dev/binder设备,这样的话就相当于和内核binder机制有了交互的通道
l 映射fd到内存,设备的fd传进去后,估计这块内存是和binder设备共享的
接下来,就到调用defaultServiceManager地方了。 扩展:android binder机制 / android的binder机制 / binder机制
defaultServiceManager位置在framework\base\libs\binder\IServiceManager.cpp中
spdefaultServiceManager
{
if returngDefaultServiceManager;
//又是一个单例,设计模式中叫singleton。
{
AutoMutex_l;
if {
//真正的gDefaultServiceManager是在这里创建的喔
gDefaultServiceManager =interface_cast->getContextObject);
}
}
return gDefaultServiceManager;
}
-----》
gDefaultServiceManager= interface_cast->getContextObject);
ProcessState::self,肯定返回的是刚才创建的gProcess,然后调用它的getContextObject,注意,传进去的是NULL,即0
//回到ProcessState类,
spProcessState::getContextObject
{
if) {//该函数根据打开设备是否成功来判断是否支持process,
//在真机上肯定走这个
return getStrongProxyForHandle;//注意,这里传入0
}
}
----》进入到getStrongProxyForHandle,函数名字怪怪的,经常严重阻碍大脑运转
//注意这个参数的命名,handle。搞过windows的应该比较熟悉
这个名字,这是对
//资源的一种标示,其实说白了就是某个数据结构,保存在数组中,然后handle是它在这个数组中的索引。--->就是这么一个玩意儿
spProcessState::getStrongProxyForHandle
{
sp result;
AutoMutex _l;
handle_entry*e = lookupHandleLocked;--》哈哈,果然,从数组中查找对应
索引的资源,lookupHandleLocked这个就不说了,内部会返回一个handle_entry
下面是 handle_entry 的结构
/*
struct handle_entry {
IBinder* binder;--->Binder
RefBase::weakref_type* refs;-->不知道是什么,不影响.
};
*/
if {
IBinder* b = e->binder; -->第一次进来,肯定为空
if ) {
b = new BpBinder; --->看见了吧,创建了一个新的BpBinder
e->binder = b;
result = b;
}....
}
return result; 返回刚才创建的BpBinder。
}
//到这里,是不是有点乱了,对,当人脑分析的函数调用太深的时候,就容易忘记。
我们是从gDefaultServiceManager=
interface_cast->getContextObject);
开始搞的,现在,这个函数调用将变成
gDefaultServiceManager= interface_cast);
BpBinder又是个什么玩意儿,Android名字起得太眼花缭乱了。
因为还没介绍Binder机制的大架构,所以这里介绍BpBinder不合适,但是又讲到BpBinder了,不介绍Binder架构似乎又说不清楚....,sigh~
恩,还是继续把层层深入的函数调用栈化繁为简吧,至少大脑还可以工作。先看看BpBinder的构造函数把。
BpBinder位置在framework\base\libs\binder\BpBinder.cpp中。
BpBinder::BpBinder
: mHandle //注意,接上述内容,这里调用的时候传入的是0
, mAlive
, mObitsSent
, mObituaries
{
IPCThreadState::self->incWeakHandle;//FT,竟然到IPCThreadState::self
}
这里一块说说吧,IPCThreadState::self估计怎么着又是一个singleton吧,
//该文件位置在framework\base\libs\binder\IPCThreadState.cpp
IPCThreadState*IPCThreadState::self
{
if {//第一次进来为false
restart:
const pthread_key_t k = gTLS; 扩展:android binder机制 / android的binder机制 / binder机制
//TLS是Thread Local Storage的意思,不懂得自己去google下它的作用吧。这里只需要
//知道这种空间每个线程有一个,而且线程间不共享这些空间,好处是,我就不用去搞什么
//同步了。在这个线程,我就用这个线程的东西,反正别的线程获取不到其他线程TLS中的数据。===》这句话有漏洞,钻牛角尖的明白大概意思就可以了。
//从线程本地存储空间中获得保存在其中的IPCThreadState对象
//这段代码写法很晦涩,看见没,只有pthread_getspecific,那么肯定有地方调用
//pthread_setspecific。
IPCThreadState* st =pthread_getspecific;
if return st;
return new IPCThreadState;//new一个对象,
}
if return NULL;
pthread_mutex_lock;
if {
if != 0) {
pthread_mutex_unlock;
return NULL;
}
gHaveTLS = true;
}
pthread_mutex_unlock;
gotorestart; //我FT,其实goto没有我们说得那样卑鄙,汇编代码很多跳转语句的。
//关键是要用好。
}
//这里是构造函数,在构造函数里边pthread_setspecific
IPCThreadState::IPCThreadState
: mProcess),mMyThreadId)
{
pthread_setspecific;
clearCaller;
mIn.setDataCapacity;
//mIn,mOut是两个Parcel,干嘛用的啊,把它看成是命令的buffer吧。再深入解释,又会大脑停摆的。
mOut.setDataCapacity;
}
出来了,终于出来了....,恩,回到BpBinder那。
BpBinder::BpBinder
: mHandle //注意,接上述内容,这里调用的时候传入的是0
, mAlive
, mObitsSent
, mObituaries
{
......
IPCThreadState::self->incWeakHandle;
什么incWeakHandle,不讲了..
}
喔,new BpBinder就算完了。到这里,我们创建了些什么呢,
l ProcessState有了。
l IPCThreadState有了,而且是主线程的。
l BpBinder有了,内部handle值为0
gDefaultServiceManager =interface_cast);
终于回到原点了,大家是不是快疯掉了,
interface_cast,我第一次接触的时候,把它看做类似的static_cast一样的东西,然后死活也搞不明白 BpBinder*指针怎么能强转为
IServiceManager*,花了n多时间查看BpBinder是否和
IServiceManager继承还是咋的....。
终于,我用ctrl+鼠标跟踪进入了interface_cast
IInterface.h位于framework/base/include/binder/IInterface.h
template
inlinesp interface_cast
{
return INTERFACE::asInterface;
}
所以,上面等价于:
inline spinterface_cast
{
return IServiceManager::asInterface;
}
看来,只能跟到IServiceManager了。
IServiceManager.h---》
framework/base/include/binder/IServiceManager.h
看看它是如何定义的:
classIServiceManager : public IInterface
{
//ServiceManager,字面上理解就是Service管理类,管理什么,
增加服务,查询服务等
//这里仅列出增加服务addService函数
public:
DECLARE_META_INTERFACE;
virtual status_t addService = 0;
};
DECLARE_META_INTERFACE,,
怎么和MFC这么类似,微软的影响很大啊~知道MFC的,有
DELCARE肯定有IMPLEMENT
果然,这两个宏DECLARE_META_INTERFACE和
IMPLEMENT_META_INTERFACE都在
刚才的IInterface.h中定义。我们先看看
DECLARE_META_INTERFACE这个宏往IServiceManager加了什
么,
下面是DECLARE宏
#defineDECLARE_META_INTERFACE \ 扩展:android binder机制 / android的binder机制 / binder机制
static const android::String16descriptor; \
static android::spasInterface; \
virtual const android::String16&getInterfaceDescriptor const; \
I##INTERFACE; \
virtual ~I##INTERFACE;
我们把它兑现到IServiceManager就是:
static constandroid::String16 descriptor; -->喔,增加一个描述字
符串
staticandroid::sp asInterface ---》增加一个asInterface函数
virtual constandroid::String16& getInterfaceDescriptor const; ---》
增加一个get函数
估计其返回值就是descriptor这个字符串
IServiceManager; \
virtual ~IServiceManager;增加构造和虚析购函数...
那IMPLEMENT宏在哪定义的呢,
见IServiceManager.cpp。位于
framework/base/libs/binder/IServiceManager.cpp
IMPLEMENT_META_INTERFACE;
下面是这个宏的定义
#defineIMPLEMENT_META_INTERFACE \
const android::String16I##INTERFACE::descriptor; \
const android::String16& \
I##INTERFACE::getInterfaceDescriptor const { \
return
I##INTERFACE::descriptor; \
} \
android::spI##INTERFACE::asInterface \
{ \
android::spintr; \
if { \ 扩展:android binder机制 / android的
binder机制 / binder机制
intr =static_cast.get); \
if { \
intr = newBp##INTERFACE; \
} \
} \
return intr; \
} \
I##INTERFACE::I##INTERFACE
{ } \
I##INTERFACE::~I##INTERFACE{ } \
很麻烦吧,尤其是宏看着头疼。赶紧兑现下吧。
const
android::String16IServiceManager::descriptor;
constandroid::String16& IServiceManager::getInterfaceDescriptor
const
{ return IServiceManager::descriptor;//返回上面那个
android.os.IServiceManager
} android::sp IServiceManager::asInterface
{
android::spintr;
if { 扩展:android binder机制 / android的
binder机制 / binder机制
intr = static_cast.get);
if {
intr = new BpServiceManager;
}
}
return intr;
}
IServiceManager::IServiceManager {}
IServiceManager::~ IServiceManager { }
哇塞,asInterface是这么搞的啊,赶紧分析下吧,还是不知道
interface_cast怎么把BpBinder*转成了IServiceManager
我们刚才解析过的interface_cast),
原来就是调用asInterface)
android::spIServiceManager::asInterface
{
android::spintr;
if {
....
intr = new BpServiceManager;
//神呐,终于看到和IServiceManager相关的东西了,看来
//实际返回的是BpServiceManager);
} 扩展:android binder机制 / android的binder机制 / binder机制
}
return intr;
}
BpServiceManager是个什么玩意儿,p是什么个意思,
终于可以讲解点架构上的东西了。p是proxy即代理的意思,Bp就是BinderProxy,BpServiceManager,就是SM的Binder代理。既然是代理,那肯定希望对用户是透明的,那就是说头文件里边不会有这个Bp的定义。是吗,
果然,BpServiceManager就在刚才的IServiceManager.cpp中定义。
classBpServiceManager : public BpInterface
//这种继承方式,
示同时继承BpInterface和IServiceManager,这样IServiceManger的
addService必然在这个类中实现
{
public:
//注意构造函数参数的命名 impl,难道这里使用了Bridge模式,真正完成操作的是impl对象,
//这里传入的impl就是newBpBinder
BpServiceManager
:BpInterface
{
}
virtual status_t addService
{
待会再说..
}
基类BpInterface的构造函数
//这里的参数又叫remote,唉,真是害人不浅啊。
inlineBpInterface::BpInterface
: BpRefBase
{
}
BpRefBase::BpRefBase
: mRemote), mRefs, mState
//o.get,这个是sp类的获取实际数据指针的一个方法,你只要知道
//它返回的是sp中xxx* 指针就行
{
//mRemote就是刚才的BpBinder
...
}
好了,到这里,我们知道了:
sp sm =defaultServiceManager; 返回的实际是
BpServiceManager,它的remote对象是BpBinder,传入的那个handle参数是0。
现在重新回到MediaService。
int main
{
spproc);
spsm = defaultServiceManager;
//上面的讲解已经完了
MediaPlayerService::instantiate;//实例化MediaPlayerservice
//看来这里有名堂~
ProcessState::self->startThreadPool;
IPCThreadState::self->joinThreadPool;
}
到这里,我们把binder设备打开了,得到一个BpServiceManager对象,这表明我们可以和SM打交道了,但是好像没干什么有意义的
事情吧,
那下面我们看看后续又干了什么,以MediaPlayerService为例。
它位于
framework\base\media\libmediaplayerservice\libMediaPlayerService.cpp
voidMediaPlayerService::instantiate {
defaultServiceManager->addService,new MediaPlayerService);
}
MediaPlayerService::MediaPlayerService
{
LOGV;//太简单了
mNextConnId = 1;
}
defaultServiceManager返回的是刚才创建的BpServiceManager
调用它的addService函数。
MediaPlayerService从BnMediaPlayerService派生
classMediaPlayerService : public BnMediaPlayerService
FT,MediaPlayerService从BnMediaPlayerService派生,
BnXXX,BpXXX,快晕了。
Bn 是Binder Native的含义,是和Bp相对的,Bp的p是proxy
代理的意思,那么另一端一定有一个和代理打交道的东西,这个就是
Bn。
讲到这里会有点乱喔。先分析下,到目前为止都构造出来了什
么。
l BpServiceManager
l BnMediaPlayerService
这两个东西不是相对的两端,从BnXXX就可以判断,BpServiceManager对应的应该是BnServiceManager,BnMediaPlayerService对应的应该是BpMediaPlayerService。
我们现在在哪里?对了,我们现在是创建了
BnMediaPlayerService,想把它加入到系统的中去。
喔,明白了。我创建一个新的Service—BnMediaPlayerService,想把它告诉ServiceManager。 扩展:android binder机制 / android的binder机制 / binder机制
那我怎么和ServiceManager通讯呢,恩,利用BpServiceManager。所以嘛,我调用了BpServiceManager的addService函数~
为什么要搞个ServiceManager来呢,这个和Android机制有关系。所有Service都需要加入到ServiceManager来管理。同时也方便了Client来查询系统存在哪些Service,没看见我们传入了字符串吗,这样就可以通过Human Readable的字符串来查找Service了。
---》感觉没说清楚...饶恕我吧。
addService是调用的BpServiceManager的函数。前面略去没讲,现在我们看看。
virtual status_taddService
{
Parcel data, reply;
//data是发送到BnServiceManager的命令包
//看见没,先把Interface名字写进去,也就是什么
android.os.IServiceManager
data.writeInterfaceToken);
//再把新service的名字写进去 叫media.player
data.writeString16;
//把新服务service—>就是MediaPlayerService写到命令中
data.writeStrongBinder;
//调用remote的transact函数
status_t err =remote->transact;
return err == NO_ERROR ?reply.readInt32 : err;
}
我的天,remote返回的是什么,
remote{ return mRemote; }-->啊,找不到对应的实际对象
了,,,
还记得我们刚才初始化时候说的:
“这里的参数又叫remote,唉,真是害人不浅啊“
原来,这里的mRemote就是最初创建的BpBinder..
好吧,到那里去看看:
BpBinder的位置在framework\base\libs\binder\BpBinder.cpp
status_tBpBinder::transact
{
//又绕回去了,调用IPCThreadState的transact。
//注意啊,这里的mHandle为0,code是ADD_SERVICE_TRANSACTION,data是命令包
//reply是回复包,flags=0
status_t status =IPCThreadState::self->transact;
if mAlive = 0;
return status;
}
...
}
再看看IPCThreadState的transact函数把
status_tIPCThreadState::transact
{
status_t err = data.errorCheck;
flags |= TF_ACCEPT_FDS;
if {
//调用writeTransactionData 发送数据
err = writeTransactionData;
}
if == 0) {
if {
err = waitForResponse;
} else {
Parcel fakeReply;
err =waitForResponse;
}
....等回复
err = waitForResponse;
....
return err;
}
再进一步,瞧瞧这个...
status_tIPCThreadState::writeTransactionData
{
binder_transaction_data tr;
tr.target.handle = handle;
tr.code = code;
tr.flags = binderFlags;
const status_t err = data.errorCheck;
if {
tr.data_size = data.ipcDataSize;
tr.data.ptr.buffer = data.ipcData;
tr.offsets_size = data.ipcObjectsCount*sizeof; 扩展:android binder机制 / android的binder机制 / binder机制
tr.data.ptr.offsets =data.ipcObjects;
}
....
上面把命令数据封装成binder_transaction_data,然后
写到mOut中,mOut是命令的缓冲区,也是一个Parcel
mOut.writeInt32;
mOut.write);
//仅仅写到了Parcel中,Parcel好像没和/dev/binder设备有什么关联啊,
恩,那只能在另外一个地方写到binder设备中去了。难道是在,
return NO_ERROR;
}
//说对了,就是在waitForResponse中
status_tIPCThreadState::waitForResponse
{
int32_t cmd;
int32_t err;
while {
//talkWithDriver,哈哈,应该是这里了
if ) err = mIn.errorCheck;
if break;
if == 0) continue;
//看见没,这里开始操作mIn了,看来talkWithDriver中
//把mOut发出去,然后从driver中读到数据放到mIn中了。
cmd = mIn.readInt32;
switch {
caseBR_TRANSACTION_COMPLETE:
if goto finish;
break;
.....
return err;
}
status_tIPCThreadState::talkWithDriver
{
binder_write_read bwr;
//中间东西太复杂了,不就是把mOut数据和mIn接收数据的处理后赋值给bwr吗,
status_t err;
do {
//用ioctl来读写
if >= 0)
err = NO_ERROR;
else
err = -errno;
} while ;
//到这里,回复数据就在bwr中了,bmr接收回复数据的buffer就是mIn提供的
if {
mIn.setDataSize;
mIn.setDataPosition;
}
returnNO_ERROR;
}
好了,到这里,我们发送addService的
就彻底走完了。
BpServiceManager发送了一个addService命令到BnServiceManager,然后收到回复。
先继续我们的main函数。
int main
{
spproc);
sp sm =defaultServiceManager;
MediaPlayerService::instantiate;
---》该函数内部调用addService,把MediaPlayerService信息 add
到ServiceManager中
ProcessState::self->startThreadPool;
IPCThreadState::self->joinThreadPool;
}
这里有个容易搞晕的地方:
MediaPlayerService是一个BnMediaPlayerService,那么它是不是应该等着
BpMediaPlayerService来和他交互呢?但是我们没看见MediaPlayerService有打开binder设备的操作啊~
这个嘛,到底是继续addService操作的另一端BnServiceManager还是先说
BnMediaPlayerService呢,
还是先说BnServiceManager吧。顺便把系统的Binder架构说说。
上面说了,defaultServiceManager返回的是一个BpServiceManager,通过它可以把命令请求发送到binder设备,而且handle的值为0。那么,系统的另外一端肯定有个接收命令的,那又是谁呢,
很可惜啊,BnServiceManager不存在,但确实有一个程序完成了BnServiceManager的工作,那就是service.exe
位置在framework/base/cmds/servicemanger.c中。
int main
{
struct binder_state *bs;
void *svcmgr = BINDER_SERVICE_MANAGER;
bs = binder_open;//应该是打开binder设备吧,
binder_become_context_manager //成为manager
svcmgr_handle = svcmgr;
binder_loop;//处理BpServiceManager发过来的命令
}
看看binder_open是不是和我们猜得一样,
struct binder_state*binder_open
{
struct binder_state *bs;
bs = malloc); 扩展:android binder机制 / android的binder机制 / binder机制
....
bs->fd = open;//果然如此
....
bs->mapsize = mapsize;
bs->mapped = mmap;
}
再看看binder_become_context_manager
intbinder_become_context_manager
{
return ioctl;//把自己设为MANAGER
}
binder_loop 肯定是从binder设备中读请求,写回复的这么一个循环吧,
voidbinder_loop
{
int res;
struct binder_write_read bwr;
readbuf[0] = BC_ENTER_LOOPER;
binder_write);
for {//果然是循环
bwr.read_size = sizeof;
bwr.read_consumed = 0;
bwr.read_buffer = readbuf;
res = ioctl;
//哈哈,收到请求了,解析命令
res = binder_parse;
}
这个...后面还要说吗,,
恩,最后有一个类似handleMessage的地方处理各种各样的命
令。这个就是
svcmgr_handler,就在ServiceManager.c中
intsvcmgr_handler
{
struct svcinfo *si;
uint16_t *s;
unsigned len;
void *ptr;
s = bio_get_string16;
switch {
case SVC_MGR_ADD_SERVICE:
s = bio_get_string16;
ptr = bio_get_ref;
if )
return -1;
break;
...
其中,do_add_service真正添加BnMediaService信息
intdo_add_service
{
struct svcinfo *si;
si = find_svc;s是一个list
si = malloc + *sizeof);
si->ptr = ptr;
si->len = len;
memcpy *sizeof);
si->name[len] = „\0?;
si->death.func = svcinfo_death;
si->death.ptr = si;
si->next = svclist;
svclist = si; //看见没,这个svclist是一个列表,保存了当前注册到ServiceManager
中的信息
}
binder_acquire;//这个吗。当这个Service退出后,我希望系统通知我一下,好释放上面malloc出来的资源。大概就是干这个事情的。
binder_link_to_death;
return 0;
}
喔,对于addService来说,看来ServiceManager把信息加入到自己维护的一个服务列表中了。
为何需要一个这样的东西呢,
原来,Android系统中Service信息都是先add到ServiceManager
中,由ServiceManager来集中管理,这样就可以查询当前系统有哪些
服务。而且,Android系统中某个服务例如MediaPlayerService的客户端想要和MediaPlayerService通讯的话,必须先向ServiceManager查询MediaPlayerService的信息,然后通过ServiceManager返回的东西再来和MediaPlayerService交互。
毕竟,要是MediaPlayerService身体不好,老是挂掉的话,客户的代码就麻烦了,就不知道后续新生的MediaPlayerService的信息了,所以只能这样:
l MediaPlayerService向SM注册 扩展:android binder机制 / android的binder机制 / binder机制
l MediaPlayerClient查询当前注册在SM中的MediaPlayerService的信息
l 根据这个信息,MediaPlayerClient和MediaPlayerService交互
另外,ServiceManager的handle标示是0,所以只要往handle是0的服务发送消息了,最终都会被传递到ServiceManager中去。
三 MediaService的运行
上一节的知识,我们知道了:
l defaultServiceManager得到了BpServiceManager,然后MediaPlayerService 实例化后,调用BpServiceManager的addService函数
l 这个过程中,是service_manager收到addService的请
求,然后把对应信息放到自己保存的一个服务list中
到这儿,我们可看到,service_manager有一个binder_looper函
数,专门等着从binder中接收请求。虽然service_manager没有从
BnServiceManager中派生,但是它肯定完成了BnServiceManager的
功能。
同样,我们创建了MediaPlayerService即BnMediaPlayerService,那它也应该:
l 打开binder设备
l 也搞一个looper循环,然后坐等请求
service,service,这个和网络编程中的监听socket的工作很像
嘛~
好吧,既然MediaPlayerService的构造函数没有看到显示的打
开binder设备,那么我们看看它的父类即BnXXX又到底干了些什么
呢,
classMediaPlayerService : public BnMediaPlayerService
//MediaPlayerService从BnMediaPlayerService派生
//而BnMediaPlayerService从BnInterface和IMediaPlayerService同时派生
classBnMediaPlayerService: public BnInterface
{
public:
virtual status_t onTransact;
};
看起来,BnInterface似乎更加和打开设备相关啊。
template
class BnInterface :public INTERFACE, public BBinder
{
public:
virtual sp queryLocalInterface;
virtual const String16& getInterfaceDescriptor const;
protected:
virtual IBinder* onAsBinder;
};
兑现后变成
class BnInterface :public IMediaPlayerService, public BBinder
BBinder?BpBinder,是不是和BnXXX以及BpXXX对应的
呢,如果是,为什么又叫BBinder呢,
BBinder::BBinder
: mExtras
{
//没有打开设备的地方啊,
}
完了,难道我们走错方向了吗,难道不是每个Service都有对
应的binder设备fd吗,
.......
回想下,我们的Main_MediaService程序,有哪里打开过binder吗,
int main
{
//对啊,我在ProcessState中不是打开过binder了吗,
sp proc);
sp sm =defaultServiceManager;
MediaPlayerService::instantiate;
......
啊?原来打开binder设备的地方是和进程相关的啊,一个进程
打开一个就可以了。那么,我在哪里进行类似的消息循环looper操作
呢,
...
//难道是下面两个,
ProcessState::self->startThreadPool;
IPCThreadState::self->joinThreadPool;
看看startThreadPool吧
voidProcessState::startThreadPool
{
...
spawnPooledThread;
}
voidProcessState::spawnPooledThread
{
sp t = newPoolThread;isMain是TRUE
//创建线程池,然后run起来,和java的Thread何其像也。
t->run;
}
PoolThread从Thread类中派生,那么此时会产生一个线程吗,看看PoolThread和Thread的构造吧
PoolThread::PoolThread
: mIsMain
{
}
Thread::Thread//canCallJava默认值是true
: mCanCallJava,
mThread),
mLock, 扩展:android binder机制 / android的binder机制 / binder机制
mStatus,
mExitPending, mRunning
{
}
喔,这个时候还没有创建线程呢。然后调用PoolThread::run,实际调用了基类的run。
status_tThread::run
{
bool res;
if {
res = createThreadEtc;
}
//终于,在run函数中,创建线程了。从此
主线程执行
IPCThreadState::self->joinThreadPool;
新开的线程执行_threadLoop
我们先看看_threadLoop
intThread::_threadLoop
{
Thread* const self =static_cast;
spstrong;
wp weak;
self->mHoldSelf.clear;
do {
...
if {
result = self->threadLoop;哇塞,调用自己的threadLoop
}
}
我们是PoolThread对象,所以调用PoolThread的threadLoop函数
virtualbool PoolThread ::threadLoop
{
//mIsMain为true。
//而且注意,这是一个新的线程,所以必然会创建一个
新的IPCThreadState对象,然后
IPCThreadState::self->joinThreadPool;
return false;
}
主线程和工作线程都调用了joinThreadPool,看看这个干嘛了~
voidIPCThreadState::joinThreadPool
{
mOut.writeInt32;
status_t result;
do {
int32_t cmd;
result = talkWithDriver;
result = executeCommand;
}
} while ;
mOut.writeInt32;
talkWithDriver;
}
看到没,有loop了,但是好像是有两个线程都执行了这个啊~这里有两个消息循环,
下面看看executeCommand
status_tIPCThreadState::executeCommand
{
BBinder*obj;
RefBase::weakref_type* refs;
status_t result = NO_ERROR;
caseBR_TRANSACTION:
{
binder_transaction_data tr;
result = mIn.read);
//来了一个命令,解析成BR_TRANSACTION,然后读取后续的信息
Parcel reply;
if {
//这里用的是BBinder。
spbtr.cookie);
const status_t error =b->transact;
}
让我们看看BBinder的transact函数干嘛了
status_tBBinder::transact
{
就是调用自己的onTransact函数嘛
err= onTransact;
return err;
}
BnMediaPlayerService从BBinder派生,所以会调用到它的onTransact函数
终于水落石出了,让我们看看BnMediaPlayerServcice的onTransact函数。
status_tBnMediaPlayerService::onTransact
{
//BnMediaPlayerService从BBinder和IMediaPlayerService派生,所有IMediaPlayerService
//看到下面的switch没,所有IMediaPlayerService提供的函数都通过命令类型来区分
//
switch {
case CREATE_URL: {
CHECK_INTERFACE; 扩展:android binder机制 / android的binder机制 / binder机制
create是一个虚函数,由MediaPlayerService来实现~~
sp player = create;
reply->writeStrongBinder);
return NO_ERROR;
} break;
其实,到这里,我们就明白了。BnXXX的onTransact函数收取命令,然后派发到派生类的函数,由他们完成实际的工作。
说明:
这里有点特殊,startThreadPool和joinThreadPool完后确实有两个线程,主线程和工作线程,而且都在做消息循环。为什么要这么做呢,他们参数isMain都是true。不知道google搞什么。难道是怕一个线程工作量太多,所以搞两个线程来工作,这种解释应该也是合理的。
网上有人测试过把最后一句屏蔽掉,也能正常工作。但是难道主线程提出了,程序还能不退出吗,这个...管它的,反正知道有两个线程在那处理就行了。
四 MediaPlayerClient
这节讲讲MediaPlayerClient怎么和MediaPlayerService交互。
使用MediaPlayerService的时候,先要创建它的BpMediaPlayerService。我们看看一个例子
IMediaDeathNotifier::getMediaPlayerService
{
sp sm =defaultServiceManager;
sp binder;
do {
//向SM查询对应服务的信息,返回binder
binder =sm->getService);
if {
break;
}
usleep; // 0.5 s
} while;
//通过interface_cast,将这个binder转化成BpMediaPlayerService
//注意,这个binder只是用来和binder设备通讯用的,实际
//上和IMediaPlayerService的功能一点关系都没有。
//还记得我说的Bridge模式吗?BpMediaPlayerService用这个binder和BnMediaPlayerService
//通讯。
sMediaPlayerService =interface_cast;
}
return sMediaPlayerService;
}
为什么反复强调这个Bridge,其实也不一定是Bridge模式,但是我真正想说明的是:
Binder其实就是一个和binder设备打交道的接口,而上层IMediaPlayerService只不过把它当做一个类似socket使用罢了。我以前经常把binder和上层类IMediaPlayerService的功能混到一起去。
当然,你们不一定会犯这个错误。但是有一点请注意:
刚才那个getMediaPlayerService代码是C++层的,但是整个使用的例子确实JAVA->JNI层的调用。如果我要写一个纯C++的程序该怎么办,
int main
{
getMediaPlayerService;直接调用这个函数能获得BpMediaPlayerService吗,
不能,为什么,因为我还没打开binder驱动呐~但是你在JAVA应用程序里边却有google已经替你
封装好了。
所以,纯native层的代码,必须也得像下面这样处理:
spproc);//这个其实不是必须的,因为
//好多地方都需要这个,所以自动也会创建.
getMediaPlayerService;
还得起消息循环呐,否则如果Bn那边有消息通知你,你怎么接受得到呢,
ProcessState::self->startThreadPool;
//至于主线程是否也需要调用消息循环,就看个人而定了。不过一般是等着接收其他}
五实现自己的Service
好了,我们学习了这么多Binder的东西,那么想要实现一个自己的Service该咋办呢,
如果是纯C++程序的话,肯定得类似main_MediaService那样干了。
int main
{
spproc);
spsm = defaultServiceManager;
sm->addService);
ProcessState::self->startThreadPool;
IPCThreadState::self->joinThreadPool;
}
看看XXXService怎么定义呢,
我们需要一个Bn,需要一个Bp,而且Bp不用暴露出来。那么就在BnXXX.cpp中一起实现好了。
另外,XXXService提供自己的功能,例如getXXX调用
XXX接口是和XXX服务相关的,例如提供getXXX,setXXX函数,和应用逻辑相关。
需要从IInterface派生
class IXXX: publicIInterface
{
public:
DECLARE_META_INTERFACE;申明宏
virtualgetXXX = 0;
virtualsetXXX = 0;
}这是一个接口。
为了把IXXX加入到Binder结构,需要定义BnXXX和对客户端透明的BpXXX。
其中BnXXX是需要有头文件的。BnXXX只不过是把IXXX接口加入到Binder架构中来,而不参与实际的getXXX和setXXX应用层逻辑。 扩展:android binder机制 / android的binder机制 / binder机制
这个BnXXX定义可以和上面的IXXX定义放在一块。分开也行。
class BnXXX: publicBnInterface
{
public:
virtual status_t onTransact;
//由于IXXX是个纯虚类,而BnXXX只实现了onTransact函数,所以BnXXX依然是
一个纯虚类
};
有了DECLARE,那我们在某个CPP中IMPLEMNT它吧。那就在IXXX.cpp中吧。
IMPLEMENT_META_INTERFACE;//IMPLEMENT宏
status_t BnXXX::onTransact
{
switch {
case GET_XXX: {
CHECK_INTERFACE;
读请求参数
调用虚函数getXXX
return NO_ERROR;
} break; //SET_XXX类似
BpXXX也在这里实现吧。
class BpXXX: publicBpInterface
{
public:
BpXXX
: BpInterface
{
}
vituralgetXXX
{
Parcel data, reply;
data.writeInterfaceToken);
data.writeInt32;
remote->transact;
return;
}
//setXXX类似
至此,Binder就算分析完了,大家看完后,应该能做到以下几点:
l 如果需要写自己的Service的话,总得知道系统是怎么个调用你的函数,恩。对。有2个线程在那不停得从binder设备中收取命令,然后调用你的函数呢。恩,这是个多线程问题。
l 如果需要跟踪bug的话,得知道从Client端调用的函数,是怎么最终传到到远端的Service。这样,对于一些函数调用,
Client端跟踪完了,我就知道转到Service去看对应函数调用了。反正是同步方式。也就是Client一个函数调用会一直等待到Service返回为止。
扩展:android binder机制 / android的binder机制 / binder机制
篇四 : C++ 关键段CS深入浅出 之多线程
CS我为什么要引入CRITICAL_SECTION和临界区呢,因为临界区是CRITICAL_SECTION的本质理论。
CS概述:
关键段是一小段代码,它在执行之前需要独占对一些共享资源的访问权。这种方式可以让多行代码以“原子方式”对资源进行操控。这里的原子方式,指的是代码知道除了当前线程之外,没有其他任何线程会同时访问该资源。当然,系统仍然可以暂停当前线程去调度其他线程。但是,在当前线程离开关键段之前,系统是不会去调度任何想要访问同一资源的其他线程的
前面说了那么多也就是想引出我下面的CRITICAL_SECTION
和临界区
什么是CRITICAL_SECTION呢,
在Windows.h中是这样一步步展现出来的
1
typedef RTL_CRITICAL_SECTION CRITICAL_SECTION;typedef
struct _RTL_CRITICAL_SECTION
{ PRTL_CRITICAL_SECTION_DEBUG DebugInfo; // // The following three fields control entering and exiting the critical //
section for the resource // LONG LockCount; LONG RecursionCount; HANDLE OwningThread; // from the thread's ClientId->UniqueThread HANDLE LockSemaphore; ULONG_PTR SpinCount; // force size on 64-bit systems when packed} RTL_CRITICAL_SECTION, *PRTL_CRITICAL_SECTION; 以下
各段对每个字段进行说明。
typedef struct _RTL_CRITICAL_SECTION_DEBUG { WORD Type; WORD CreatorBackTraceIndex; struct _RTL_CRITICAL_SECTION *CriticalSection; LIST_ENTRY ProcessLocksList; DWORD EntryCount; DWORD ContentionCount; DWORD Flags; WORD
CreatorBackTraceIndexHigh; WORD SpareWORD ;} RTL_CRITICAL_SECTION_DEBUG,
*PRTL_CRITICAL_SECTION_DEBUG, RTL_RESOURCE_DEBUG, *PRTL_RESOURCE_DEBUG; 这一结构由
InitializeCriticalSection 分配和初始化。它既可以由 NTDLL
内的预分配数组分配,也可以由进程堆分配。
RTL_CRITICAL_SECTION
的这一伴随结构包含一组匹配字段,具有迥然不同的角色:有两个
难以理解,随后两个提供了理解这一临界区链结构的关键,两个是重
复设置的,最后两个未使用。
下面是对 RTL_CRITICAL_SECTION 字段的说明。
我们很多时候都在使用这个临界区,如果你也比较了解,也没必要继续看了,可以直接跳过本小段~
临界区是一种防止多个线程同时执行一个特定代码节的机制,这一主题并没有引起太多关注,因而人们未能对其深刻理解。在需要跟踪代码中的多线程处理的性能时,对 Windows 中临界区的深刻理解非常有用。本文深入研究临界区的原理,以揭示在查找死锁和确认性能问题过程中的有用信息。它还包含一个便利的实用工具程序,可以显示所有临界区及其当前状态。
临界区是一种轻量级机制,在某一时间内只允许一个线程执行某个给定代码段。通常在修改全局数据时会使用临界区。事件、多用户终端执行程序和信号量也用于多线程同步,但临界区与它们不同,它并不总是执行向内核模式的控制转换,这一转换成本昂贵。稍后将会看到,要获得一个未占用临界区,事实上只需要对内存做出很少的修改,其速度非常快。只有在尝试获得已占用临界区时,它才会跳至内核模式。这一轻量级特性的缺点在于临界区只能用于对同一进程内的线程进行同步。
在将临界区传递给 InitializeCriticalSection
时,临界区即开始存在。初始化之后,代码即将临界区传递给 EnterCriticalSection 和 扩展:entercriticalsection / critical section /
criticalsection 用法
LeaveCriticalSection API。一个线程自 EnterCriticalSection 中返回后,所有其他调用
EnterCriticalSection 的线程都将被阻止,直到第一个线程调用 LeaveCriticalSection
为止。最后,当不再需要该临界区时,一种良好的编码习惯是将其传递给 DeleteCriticalSection。
在临界区未被使用的理想情况中,对 EnterCriticalSection
的调用非常快速,因为它只是读取和修改用户模式内存中的内存位置。否则,阻止于临界区的线程有效地完成这一工作,而不需要消耗额外的
CPU
周期。所阻止的线程以内核模式等待,在该临界区的所有者将其释放之前,不能对这些线程进行调度。如果有多个线程被阻止于一个临界区中,当另一线程释放该临界区时,只有一个线程获得该临界区。
函数原型:
voidInitializeCriticalSection;
函数说明:定义关键段变量后必须先初始化。
扩展:entercriticalsection / critical section / criticalsection 用法
篇五 : 深入浅出Mybatis-与Spring集成
单独使用mybatis是有很多限制的,而且很多业务系统本来就是使用spring来管理的事务,因此mybatis最好与spring集成起来使
用。
前一节讲了如何注入一个mapper对象到业务层, mapper的行为依赖于配置,mybatis默认使用单个更新,当然我们可以通过修改mybatis配置文件来修改默认行为,但如果我们只想让某个或某几个mapper使用批量更新就不得行了。这个时候我们就需要使用模板技术:
这里笔者定义了两个模板对象,一个使用单个更新,一个使用批量更新。有了模板之后我们就可以改变mapper的行为方式了:
跟上一节的mapper配置不同的是,这里不需要配置sqlSessionFactory属性,只需要配置sqlSessionTemplate。
前面的章节可以看到,我们的dao需要一个一个的配置在配置文件中,如果有很多个dao的话配置文件就会非常大,这样管理起来就会比较痛苦。幸好mybatis团队也意识到了这点,他们利用spring提供的自动扫描功能封装了一个自动扫描dao的工具类,这样我们就可以使用这个功能简化配置:
MapperScannerConfigurer本身涉及的spring的技术我就不多讲了,感兴趣且对spring原理比较了解的可以去看下它的源码。我们重点看一下它的三个属性:
basePackage:扫描器开始扫描的基础包名,支持嵌套扫描;
sqlSessionTemplateBeanName:前文提到的模板bean的名称;
markerInterface:基于接口的过滤器,实现了该接口的dao才会
被扫描器扫描,与basePackage是与的作用。
除了使用接口过滤外,还可使用注解过滤:
annotationClass:配置了该注解的dao才会被扫描器扫描,与basePackage是与的作用。
需要注意的是,两个过滤条件只能配一个。
上一篇文章:[产品经理需要懂的技术]好的产品经理需要哪些素质,
下一篇文章:[加入wto对中国的影响]加入WTO对中国的影响