爱吱声

标题: 简单的经济学游戏(更新)The Most Dangerous Man in America 二 [打印本页]

作者: 烟波钓徒    时间: 2013-6-5 05:28
标题: 简单的经济学游戏(更新)The Most Dangerous Man in America 二
本帖最后由 烟波钓徒 于 2013-6-24 13:34 编辑 & M! Q3 D, b0 h- Z8 G) M/ D9 m; S% N

$ A! m. v" ?+ A: n% ?4 M3 `孔老夫子说过,听其言,观其行。经济学要研究人的行为,或者说人的偏好,那么当然不能问问别人到底会怎么选,而是要通过人们的实际中的选择来反推人们的偏好,或者叫效用函数。
+ x! z% B: i( k1 V* {$ _$ u, I# x8 S1 Z/ l, y0 G/ P$ V# g+ @
正如马丁教授指出的,这个游戏说明应该是游戏一和二的两个罐子相同,所以规则是
8 p* D2 E1 U5 R4 V8 t% i3 q  J# z* ]/ Y* S  u+ [* K6 A1 Z# ^8 m" ^
游戏一罐子A:里面装了100个球,50个黑色,50个白色。 1 }5 v8 ]  ]6 \$ F7 w4 Y+ i
游戏一罐子B:里面装了100个球,可能是全黑或者全白。  6 f# a4 d' g5 X# J3 s' h6 A" x
游戏一规则: 只要拿到的球为黑色,游戏者可以拿到100元奖励。否则奖励为0,无惩罚。0 w* {. F2 E3 @& N, x
游戏二规则: 只要拿到的球为白色,游戏者可以拿到100元奖励。否则奖励为0,无惩罚。# o* |6 g# O& M9 p5 z

+ S3 i' I( `) c1 e% D/ B( L在期望效用理论的框架下,我们知道罐A里面拿到黑球的可能性是1/2.假设我们对罐B有一个主观概率分布,黑和白球的概率分别是p和1-p。假设得到奖励的效用是U.那么我们从选择来倒推游戏者的效用偏好。8 s6 }" z' P- W, b, U+ N" k
选择一A的:
' V8 p9 |# j- P7 F1 p! e% z3 m) V1/2 *U + 1/2* 0 >= p * U + (1-p) * 0" {0 I) z! S- h2 b- @, v+ {
(之前误为1/2 *U + 1/2* 0 >= p * U + (1-p) * U,多谢xlan1976指正)
2 k7 G4 W) |$ k5 x$ n7 Y4 z那么 很容易发现,我们的主观概率实际上是 p<=1/2,也就是选择者合理的主观概率是罐子B里面黑球数小于50.
+ w9 E. _1 I) @3 q2 ?7 F同样可以得到:
& Z7 E: V. _, D; U* H% ?9 a0 b* ?选择一B的: 主观概率是罐子B里面黑球大于50.. Q: f$ K, [( e( t
选择二A的: 主观概率是罐子B里面白球小于50.2 j3 ?1 {0 o6 h2 V- ^$ ^$ d  k
选择二B的: 主观概率是罐子B里面白球大于50.
+ A  C2 A8 c- x3 [3 _6 V
" b1 b' X) {7 p1 v
2 s8 L2 N, J! @那么实际上选择AA和BB的人,他们的主观概率是不可能前后一致的。而前后一致的选择有多少,大家可以看到,只有8/66. 实际上,这个实验说明,大部分人的选择,在期望效用理论的框架内,不存在一个主观概率来是人的选择理性化,或者叫符合逻辑。这个实验实际上动摇了整个期望效用理论的基础,也是绝大部分经济学模型的假设前提。
0 o0 e: q& }/ K& e7 T* ~
4 n3 A0 k0 \7 Z; x 所以,信仰不是你说有,你就真的有。你的选择才是最好的证明。) g6 M% v# a! X3 k

! W3 E( I) e8 G1 ~这个现象最早被凯恩斯和芝加哥大学的奈特提出,但是在1960年代丹尼尔 艾斯伯格 (Daniel Ellsberg) 在哈佛用实验来阐述并仔细论述,因此这个被称为 艾斯伯格悖论。 3 l/ j+ @, v& o  \4 C" H  i" d

作者: stpearl    时间: 2013-6-5 13:05
本帖最后由 stpearl 于 2013-6-5 13:11 编辑 * e/ U1 `3 m& b* N8 d
3 I- `/ ?& ~2 ?% A
Randomization and ambiguity aversion?
# w9 {" s) g: s$ \
4 g! t0 q; t% L/ M; Y6 \& R- D. [- A+ {在asset pricing 方面,在risk aversion的基础上再引入ambiguity aversion被用来解释equity premium puzzle的model 最近很多。实证方面separate risk aversion 和ambiguity aversion和度量ambiguity aversion coefficient 的东西能不能蒸个小包子?
作者: 烟波钓徒    时间: 2013-6-6 04:12
本帖最后由 烟波钓徒 于 2013-6-6 06:03 编辑
7 u8 }6 n( ^8 }5 {/ u# O
stpearl 发表于 2013-6-5 13:05 6 d0 o1 z2 c/ o3 l# Q! l7 j
Randomization and ambiguity aversion?! ]* p1 W4 l; z6 K2 |- a/ _
$ g7 T) P' u+ U4 S" n* q' u7 e/ z
在asset pricing 方面,在risk aversion的基础上再引入ambiguity  ...
- O! H  \" |& p' I

; V$ E! `7 _) o. \0 Y想不到在这里碰到专家阿。
  l2 ^" Y6 q% m+ \" z3 z$ x! E  _( L* f. ?5 V+ a4 I
Ambiguity Aversion最近确实算是一个在很多领域都比较热点的问题。但是要能在这里解释清楚的我自认还能力不够。不过可以简单说下我知道的,您要有兴趣可以私信说。
9 @; \5 h: E5 D$ s
1 ]. C' k# ?! k$ S+ P. a: T9 U先说最最基础的方面,加州理工的Colin Camerer和他的同事们利用fMRI和实验结合的方法,来观测被试者在面临risk和uncertainty时候的选择。他们的结果显示,risk和uncertainty的选择其实是受人大脑皮层的不同位置控制的。这个应该是risk和uncertainty分离的神经生物学基础。! j) \; C1 u% m  M: M

! {* p( u! f4 p! \5 \) s3 |7 F在ambiguity aversion的公理化基础,目前并不是非常统一。最早的应该有Gilboa和Schmeidler的一系列基础性的文章和几个不同的模型。同时期的大概还有Mark Machina等人。现在还有几个不可不提的是Larry Epstein还有他的学生,(如Tan Wang等,他好像对中国学生很友好,特别是山东大学的有好几个。),还有意大利Bocconi的MASSIMO MARINACCI和Fabio Maccheroni等人。# d- K  U# Y! x1 ~- h
9 v* X+ |* R" A5 N2 ~7 N% [% D1 }1 u/ l
宏观经济学里一直对ambiguity非常重视的主要有Hansen和Sargent,因为宏观里面中央政府的决策往往面临risk和unceratinty的问题,同时因为宏观形式的判断和政策的影响都非常难以准确的估计,所以他们非常关心如何做出一个可能不是最优的,但是在当你对将来判断有误的时候,也不会错的太离谱的政策。就是robust control的问题。
5 n7 T2 ^6 z( M$ v" A; J8 H
; t- Q- p' D4 k, ~+ Dasset pricing领域特别是macro finance领域,从以前的equity premium puzzle和市场anomaly出发,现在macro finance的人特别希望能建立一个单一的框架来同时解释这些金融市场上的所有puzzle。ambiguity aversion在这个方面非常有希望。这个方面的有Hansen, Sargent,Schneider,Ju, Miao,Ai等人。还有在微观结构里面考虑ambiguity的人,包括Cornell的Easley,O'Hara等人。另外一个方向就是用disaster risk来解释这些puzzle,典型的就是Barro, Gaibaix,这个虽然出发点不太一样,但是因为在观测上很难区分彼此,所以我把这个也顺便归进来。
8 Z7 W% _* R1 o- G5 @& ^& r( h( H9 `+ F( M! _$ o5 A! E  _
计量领域Ambigiuty Aversion和统计学家原来关心的现在计量经济学越来越关心的Robust inference有关。统计学家Cox有句名言,所有的模型都是错的,但是有一些是有用的。可以参考Dracula在本版的关于经验研究方法的文章。里面提到,很多很有影响力的经验文章,最后证明在数据或者模型方面的瑕疵导致最后结果整个改变。所以计量经济学家最近很多年非常关心weal iv和robust inference的问题。现在有些人试图将decision theory和robust inference结合起来。另外一个方面,经济学模型里面经常涉及到要对人的期望建模,但是期望是看不见的东西,要identify这个模型,需要很强的假设,比如各种结构模型。所以像Manski就非常关心如何更准确的来测量期望,他的主张是回到利用问卷调查数据等。而ambiguity aversion模型的假设一般是决策基于一个概率分布的集合而不是单个概率分布,所以使得identification更加困难。我个人以为,identification的问题,最后会是一个非常重要的问题。
作者: stpearl    时间: 2013-6-7 11:34
本帖最后由 stpearl 于 2013-6-7 11:44 编辑
- g5 i& S  h" j' q7 ?$ R1 k
烟波钓徒 发表于 2013-6-6 04:12   Y( w1 q% ~  N; t  Q( E
想不到在这里碰到专家阿。6 _* O# H* d  V7 c) ]

( N/ f( M. c; q1 N4 eAmbiguity Aversion最近确实算是一个在很多领域都比较热点的问题。但是要能在 ...

: j, Y* ^6 V: X4 D  \5 ~; `- a  `8 Z% {1 o9 F
多谢这么高水准的综述. 专家可不敢当. 就借着这个帖子往下写写.
; ]" _, T$ s; l  o5 \  q9 q
8 w  I; O) m4 t5 }& X' }目前的文献里,ambiguity 和 Knightian uncertainty基本上是等价的概念. Risk 是uncertainty with known probability distribution; ambiguity 是 uncertainty with unknown probability distribution. 在您的例子里,罐子A就是一个“risky” 罐子,而罐子B 是一个“ambiguous” 罐子:它的白黑球的probability distribution是不确定的。或者说,我们可以有100个不同的prior distribution: [0, 100/100],[1/100,99/100]...[1,0]. 在没有其他的信息情况下,很难说哪一个才是比较合适的prior。这个例子就揭示了经典的期望效用理论和Ambiguity aversion framework的一个根本区别:前者有一个唯一的probability distribution来描述各种可能的结果;而后者这个probability law却不是唯一的。之所以没有一个统一的ambiguity aversion model 就在于不同的model对人们如何在存在ambiguity 的情况下的decision rule有不同的假设。& B. X+ @" R" n
  h2 q& d1 l9 z6 W, l4 M% p
在Gilboa的“max-min” model下,假设人们(1)先在不同的probability distribution下最大化期望效用;(2)然后在所有可能的(最大化)期望效用里面挑一个最小的作为最后的“最优”结果。在这个框架下,人们都被假设为保守或者是“悲观者”。这是这个模型所面临的最主要的问题。 另外的一个缺陷是,这个期望效用它不连续。这可是“要了亲命“。当然这是夸张了,Epstein和Schmeidler一样用类似的model发了JF。
. h$ S$ e5 F& M2 v* q. J: U( x9 \* ^3 A  b( [+ ~8 G
所以,一个直接的拓展就是 ”alpha max-min“ model。凡事还是要往好处看么。那么我们就在最好和最坏的(最大化)期望效用里面作个折中。alpha[0,1] (1-alpha)就是给最坏的(和最好的)结果的权重。
7 C6 ^1 n6 I$ m: R) a7 l
. i1 T- K8 H! U& A% _, VKlibanoff(2005)就提出了一个smooth的model,简言之就是“期望的期望”。“max-min” model可以作为这个model的一个特例,如果人们的ambiguity aversion非常非常非常大。这个模型的另外一个好处就是可导性,能做一些比较分析,而且可以在理论上区分risk aversion和ambiguity aversion. 结合CAPM, Maccheroni 对这个模型进行了进一步的拓展,显示出 存在ambiguity aversion的情况下,ambiguity premium会直接反映在 CAPM的alpha里。
4 C. v" G6 D6 v! g' A$ l. ?1 B1 A9 e$ ]
个人认为Hansen, Sargent的robust constrol与以上模型最大的区别在于:虽然存在多个(可能是无限多个)probability law,能不能结合已经有的“经验” 来帮助我们找到一个比较合适的distribution? 比如,我们对未来的失业率有一个2%的估计。这个估计可能是一个无偏估计,当然也会受到一个噪音的影响(假设这个噪音服从中心为零的正态分布)。所以他们引入了一个在统计上非常重要的概念:entropy。借助entropy,这个理论假设:人们在作决定时可以偏离prior distribution来最大化期望效用, 但是鉴于这个distribution 是基于现有信息的最优估计,必须对偏离这个最优估计加以“惩罚”。 entropy正是用来度量决策所用的distribution和“现有最优估计”的偏离程度。这个模型(不太严谨,人家可是写了一本书)可以拓展到许多领域中的parameter uncertainty的研究中去。当然这个模型也不是没有问题。 Epstein(2010,NBER的paper) 他老人家就指出这个模型实际上就是给效用穿了个马甲嘛,exp(u(x)),没有从本质上解决 Ellsberg Paradox。2 i# B4 b6 a. g# ~2 N

# L+ r* C5 u7 T8 N& ^$ i以上,我们还都只是讨论在ambiguity aversion 下个体决策的问题。如果涉及到多个决策主体,比如资产市场中的卖方和买方,又有不同的blief。这种情况下,分析起来就更为复杂。MIT的Hui Chen 就有着方面的研究,有兴趣就可以放狗。( t! i$ Q0 C) j2 m6 H4 J8 m8 A) Y
, R5 l5 z2 M% G2 m
总的来说,个人认为很难有一个比较统一的理论,因为很难对个体的决策准则作一个统一的假设。这个理论之所以比较热,因为很多领域都存在parameter/distribution uncertainty的问题。举个例子,从上个世纪末开始,保险行业就开对重大自然灾害(地震,飓风)进行电脑建模。现在美国特定的区域(比如佛州)已经可以做到zipcode level的建模,包括房屋构造,年限,周围的地址环境,飓风等级,行进的可能路线。可是即使这样,还远远不够。原因就在于这些灾害都是小概率事件,50乃至上百年一遇,可用的历史数据太少。一次黑天鹅事件(Katrina)就能改变原有的估计。所以,模拟的数值能够落到3,4个标准差之外也不少见。而且所有的建模里面,最要命的还是 unknown unknown。2011年日本的地震引发的海啸就是个例子。日本的地震是保险巨灾模型里都有的,但是地震所触发的海啸的“二次灾害”却没有包括在原来的模型里面。另外同年,新西兰地震带来的泥石流,泰国的洪水和智利的地震给全球供应链产生的冲击都是原来巨灾模型里的盲点。很多时候,只有发生了才知道“哦,原来不知道还能这样。” 对于保险商来说可就没有这么一句带过的轻松了。一个盲点就意味着上十亿美金的赔付。原来的可保风险,比如business interruption,现在很可能就变成了不可保风险了。这些例子都说明,我们已知的,甚至是熟知的,很可能都是不完整的,only partial law。这也是为什么要研究ambiguity的动因。& y. x0 t) ?$ [: H4 `
$ @  ]7 i/ U" _" j' ^
写了一些浅见,算是狗尾续貂吧。3 x- u3 P3 t7 ]0 J6 C8 G/ f3 w
' f. L8 V: i! f) w

  b6 @% ]6 O9 O5 y! c
! z$ R: i  L4 _8 I+ Z/ b
作者: stpearl    时间: 2013-6-7 11:55
烟波钓徒 发表于 2013-6-6 04:12
+ j9 g# `+ H; k. W+ J想不到在这里碰到专家阿。
, R5 q- w0 L6 _( N2 p
+ _0 {# k" L1 [8 D- @Ambiguity Aversion最近确实算是一个在很多领域都比较热点的问题。但是要能在 ...
  |+ z. a6 ?4 K4 t4 j
题外话,在这种前沿课题里面,中国人的原创工作也越来越多了。Ju, Miao的研究就发在Econometrica 上面。而且在顶级牛校里面,MIT的Hui Chen, Chicago的 Zhiguo He 都是做的非常好的。可惜国内的媒体还是郎咸平
作者: 烟波钓徒    时间: 2013-6-9 11:36
本帖最后由 烟波钓徒 于 2013-6-9 19:07 编辑
) ^+ `  K' |- m
stpearl 发表于 2013-6-7 11:34 ; ^$ R; l! H* Q* i) W, q
多谢这么高水准的综述. 专家可不敢当. 就借着这个帖子往下写写.( y, B3 }+ w, s. T
. f1 K. ?# i; u# W8 P
目前的文献里,ambiguity 和 Knightian u ...

/ c2 K  p( Y0 ]& _( `9 D+ w2 n7 V5 }  h
想不到我一块转头引出这么好东西来。
6 W2 o% a9 u( @# E" R
, Y1 V2 _! X4 w你对KMM的smooth model的评价非常准确,他们考虑的实际上是second order probability。就是概率分布的概率分布。这个模型的不足之处在于,一这里一阶和二阶的划分是完全主观的,而且这两个层次的风险偏好程度却截然不同。这个实际上如果对于一个只能看到数据的econometrician,是没法区分的。不仅他们的模型,Hansen Sargent的entropy bound其实也存在这个问题。他们假设一个分布的集合,这个集合的边界也不容易确定。
# C4 v( P/ |: L* L" q" O- }/ ]4 |0 p5 \' U; w& M; d/ x8 @
你的总结我也非常赞同,很多时候在往往分布的尾部部分的数据点非常稀少,从而难以准确从历史数据里面估计出来。而往往这个尾部的参数会对经济变量起非常打的作用。而且这个问题也没办法很好的解决。现在很多宏观的人对这个很感兴趣也在于此。
作者: 烟波钓徒    时间: 2013-6-9 11:39
stpearl 发表于 2013-6-7 11:55 9 J9 v8 ^/ z! t7 i: T, {
题外话,在这种前沿课题里面,中国人的原创工作也越来越多了。Ju, Miao的研究就发在Econometrica 上面。 ...
# P3 I5 |0 E$ S: C' z
" F6 k6 ]! M6 V* F$ p  r+ `% b5 r
# t! F5 S1 U0 ?2 v
大陆出来的做金融的其实还是有很多已经算是big name,年轻一代也很多做的不错了。长江最近几年金融的找了很多全职的Senior Finance professor回去访问或者任教。所以国内的年轻人应该还是有很好的学习机会的。
8 O3 [: C. @! H; i9 ~- @' ]9 x
  b! f+ C- D9 A/ \. p3 m4 J' Q不过我个人以为,在目前的情况下,国内还是没有好的环境。要建立一个学术氛围不容易,要毁掉却很容易。
* r$ v: T) y( Z4 K而且看这届刚上台的这些管教育的人,我觉得是每况愈下。 对于他们来说,提高学术水平和教育水平对稳固他们的位置并没有啥帮助,甚至会有害处。个人素质上,这些很早走仕途的人也从来没有受过严谨的学术训练,他们对不懂的东西采取压制的态度也是完全符合ambiguity aversion的偏好的。
作者: nimenkanne    时间: 2013-6-23 09:05
本帖最后由 nimenkanne 于 2013-6-23 09:10 编辑
2 ]6 P5 P, [) D1 X: t6 p0 E( X, ~  ^& ]/ y9 \
选择一A的:9 M( e$ Z  `1 U
1/2 *U + 1/2* 0 >= p * U + (1-p) * U
; f+ x6 `: q  {5 O$ m8 s5 |& ^7 m那么 很容易发现,我们的主观概率实际上是 p<=1/2,也就是选择者合理的主观概率是罐子B里面黑球数小于50.' A3 r: E2 o9 a2 j) x- D. a/ _
同样可以得到:( N1 y( H  ?8 a8 {7 l
8 I- p7 Z, Y! S7 I选择一B的: 主观概率是罐子B里面黑球大于50.' Q& W' v0 Q% E
0 h' Y; S+ \8 {+ p. {# ?: T8 m) c选择二A的: 主观概率是罐子B里面白球小于50.
. `9 B2 t- ?% p+ t选择二B的: 主观概率是罐子B里面白球大于50.* Q7 v1 A2 R: z3 g  }

" e% q  P* f! ?* g7 J8 H我倒是有2个想法:
4 D8 L# c. w! N* B8 B8 M6 o/ u  G: U1.   1/2 *U + 1/2* 0 >= p * U + (1-p) * U  这个等式成立不了。我们做个简单的运算,这个等式等同于是 U/2 >= U(因为pU+U-pU)。但是U是100啊。我觉得这里的   >=  这个逻辑有问题。
# p  W! G+ M5 V4 e/ K  t& {  b' i# E& H  y& r
2. 我们的主观概率实际上是 p<=1/2,也就是选择者合理的主观概率是罐子B里面黑球数小于50. 这里应该是罐子B里面黑球数小于等于50。如果把4个选项的等于都加上,那就可以解释有的人选AA或者BB了。8 @7 ]  y. t% g

3 a+ g( w( Y. h# S$ _
作者: 老马丁    时间: 2013-6-23 10:37
stpearl 发表于 2013-6-7 11:34 " F) w: |! N. s3 V, s; D
多谢这么高水准的综述. 专家可不敢当. 就借着这个帖子往下写写.
1 s4 E* B7 h/ Q) X) v9 K' u7 n+ Z* f; [' B( H2 u+ j% H4 q
目前的文献里,ambiguity 和 Knightian u ...

+ O/ Y; J4 g3 D& _! j8 C这跟unawareness有联系吗?这个我倒是知道一点。' R  x" e0 j' [- m

  Z, A1 O7 i. d- s: D6 V
作者: stpearl    时间: 2013-6-23 21:17
烟波钓徒 发表于 2013-6-9 11:39 1 Y5 V7 o& g+ O$ h/ v4 r
大陆出来的做金融的其实还是有很多已经算是big name,年轻一代也很多做的不错了。长江最近几年金融的找 ...

$ _7 E6 f  s+ e+ ^" X( [5 r% R最后的评价非常非常的中肯。
作者: xlan1976    时间: 2013-6-23 22:22
提个问题:
- H3 d* u5 b0 D4 b" m: J“选择一A的:
6 d* o  Y# R( K0 b; {9 @5 h1 K1/2 *U + 1/2* 0 >= p * U + (1-p) * U
, ]) d# x8 e; [! }: a2 W( F& Xi那么 很容易发现,我们的主观概率实际上是 p<=1/2,也就是选择者合理的主观概率是罐子B里面黑球数小于50.”
+ `: C8 j8 O/ B& l+ X  f这个式子的右半部分应该是 p * U + (1-p) * 0吧。。
作者: 奉孝    时间: 2013-6-24 04:49
小白问一句,那个公式简化一下不是1/2 *U 》=U吗,跟P没关系啊
作者: 烟波钓徒    时间: 2013-6-24 13:33
nimenkanne 发表于 2013-6-23 09:05 % T, i- `. t/ S) }
选择一A的:0 [- t( v) ~/ b  f
1/2 *U + 1/2* 0 >= p * U + (1-p) * U
8 v+ X5 ?8 P& C2 R5 |6 S7 N! a那么 很容易发现,我们的主观概率实际上是 p= p * U +  ...

' v+ D* z+ B7 f不好意思,这里有个错误,应该是3 {  ?' |" u1 c' f! G
1/2 *U + 1/2* 0 >= p * U + (1-p) * 0
作者: 烟波钓徒    时间: 2013-6-24 13:54
nimenkanne 发表于 2013-6-23 09:05
" K5 {) a- a3 o% l3 R选择一A的:" B+ y) S. {# d$ t: v
1/2 *U + 1/2* 0 >= p * U + (1-p) * U7 U8 F1 p. n: w; {9 P' S7 v
那么 很容易发现,我们的主观概率实际上是 p= p * U +  ...
( d9 H2 Z7 w$ s. \) t$ z- \0 n
黑球小于50选择AB是合理的,但是选择AA就不合理了,因为不可能黑球和白球的概率同时小于等于1/2。当然也可以说唯一的合理解是黑白刚好1/2.




欢迎光临 爱吱声 (http://aswetalk.net/bbs/) Powered by Discuz! X3.2