Опубликован: 05.08.2011 | Доступ: свободный | Студентов: 1407 / 57 | Оценка: 4.50 / 3.50 | Длительность: 18:52:00
ISBN: 978-5-9963-0014-3
Специальности: Математик, Экономист
Лекция 2:

Введение в дизайн механизмов

< Лекция 1 || Лекция 2: 1234 || Лекция 3 >

Основные понятия дизайна механизмов

Суть задачи дизайна механизмов заключается в следующем: мы хотим построить механизм, в котором то или иное равновесное состояние системы будет оптимальным относительно той или иной цели. Для этого нужно сначала определить, какая же у нас цель.

Определение 2.4. Функцией социального выбора называется функция

f:\Theta_1\times\ldots\times\Theta_N\to\mathcal O,

которая выбирает тот или иной желаемый результат f(\mathbf\theta) при данных типах \mathbf\theta=(\theta_1,...,\theta_N).

Функция социального выбора — это то, что нам бы хотелось получить от механизма, который мы разрабатываем. Но при этом каждый агент будет максимизировать свою собственную прибыль, и надо это каким-то образом примирить. На решение именно этой задачи и направлено понятие механизма.

Участники экономического механизма

Рис. 2.3. Участники экономического механизма

Определение 2.5. Механизм \mathcal M=(\Sigma_1,...,\Sigma_N,g) состоит из наборов стратегий \Sigma_i для каждого агента и функции исходов g:\Sigma_1\times\ldots\times\Sigma_N\to\O, которая определяет исход, предусмотренный механизмом для полученного на вход профиля стратегий

\mathbf s=(s_1,...,s_N)\in \Sigma_1\times\ldots\times\Sigma_N.

На рис. 2.3 изображено то, что агенты обычно знают о себе и других агентах; они выбирают стратегии s_i так, чтобы максимизировать вероятность удачного исхода, а затем "механизм", собрав все "ставки", определяет собственно исход. Кавычки здесь потому, что и механизма может как такового не быть, и ставки могут быть весьма непривычными.

Можно проанализировать тот или иной механизм и понять, где у него точки равновесия. При этом может оказаться, что механизм реализует ту или иную функцию социального выбора.

Определение 2.6. Механизм \mathcal M=(\Sigma_1,...,\Sigma_N,g) реализует функцию социального выбора f:\Theta_1\times\ldots\times\Theta_N\to\O, если для всех возможных векторов типов \mathbf\theta=(\theta_1,\ldots,\theta_N)\in\Theta_1\times\ldots\times\Theta_N

g(s_1^*(\theta_1),...,s_N^*(\theta_N))=f(\mathbf\theta),

где профиль стратегий (s^*_1,...,s^*_N) находится в равновесии по отношению к игре, индуцированной \mathcal M.

Под "равновесием" можно понимать равновесие по Нэшу, по Байесу-Нэшу, в доминантных стратегиях — какое угодно. Обычно нас интересует максимально сильное из возможных равновесий.

Давайте попробуем построить тривиальный механизм, который мог бы реализовывать всевозможные функции социального выбора. Для этого мы просто спросим у каждого агента, какой у него тип (ответы на этот вопрос будут возможными стратегиями агентов), а потом в качестве функции исходов возьмем функцию социального выбора:

g(\theta)=f(\theta).

Казалось бы, все работает. Но ведь агенты не обязаны говорить нам правду! Агенты будут максимизировать свой доход, сообщая тот тип, который выгоднее, решая (для равновесия по Байесу-Нэшу) задачу оптимизации

\max\limits_{\theta^\prime\in\Theta_i}\mathbf E_{\mathbf\theta_{-i}}u_i(\theta^\prime,\mathbf s_{-i}(\mathbf\theta_{-i}),\theta_i).

Нам нужно построить механизм так, чтобы решение этой задачи для агентов сошлось с желаемым; в частности, в данном случае нам нужно было бы реализовать правдивый механизм, при котором агентам было бы выгодно сообщать свои настоящие типы. Один такой пример мы уже разбирали — это был аукцион Викри.

Есть ряд свойств функций социального выбора, которые могут очень помочь нам в дизайне механизмов, а также гарантировать много полезных свойств тем механизмам, которые смогут реализовать обладающие этими свойствами функции. Сейчас мы их рассмотрим и введем (естественные) ограничения на агентов.

Определение 2.7. Функция социального выбора f:\Theta_1\times\ldots\times\Theta_N\to\mathcal O называется оптимальной по Парето, если для всякого вектора типов \mathbf\theta=(\theta_1,\ldots,\theta_i) и всякого исхода o^\prime\neq f(\mathbf\theta)

u_i(o^\prime,\theta_i)>u_i(f(\mathbf\theta),\theta_i) \quad \Rightarrow \quad \exists j:\ u_j(o^\prime,\theta_j) < u_j(f(\mathbf\theta), \theta_j).

Оптимальность по Парето значит, что если кому-то стало лучше, чем в предлагаемом функцией f варианте, то кому-то другому обязательно стало хуже. То есть нельзя монотонно улучшить дела сразу всех агентов по сравнению с оптимальной по Парето функцией социального выбора.

Давайте приведем пример, демонстрирующий, что оптимальность по Парето еще не гарантирует правдивости механизма.

Пример 2.2. Рассмотрим множество исходов \mathcal O=\{x,y,z\} и предположим, что действуют два агента. У первого агента ровно один тип, \Theta_1=\{\theta_1\}, и у этого типа структура предпочтений такова:

x>_1y>_1z.

А у второго агента два разных типа \Theta_2=\{\theta^a_2,\theta^b_2\}, и вот их структура предпочтений:

z>^a_2y>^a_2x,\quad y>^b_2x>^b_2z.

Мы пытаемся реализовать эффективную по Парето (проверьте!) функцию социального выбора:

f(\theta_1,\theta_2^a)=y,\qquad f(\theta_1,\theta_2^b)=x.

Если мы захотим просто спросить у каждого агента его тип, второму будет выгодно соврать: при типе \theta_2^b ему будет выгодно сказать, что он \theta_2^a, и получить в результате исход y, а не x.

Конец примера 2.2.

Можно теперь ввести вполне естественное определение оптимального по Парето механизма.

Определение 2.8. Механизм называется оптимальным по Парето, если он реализует оптимальную по Парето функцию социального выбора.

Это определение на самом деле предполагает, что исход окажется оптимальным по Парето уже для конкретных типов агентов, после того как все типы окажутся известными, и функция социального выбора отработает на векторе типов. Такая ситуация, когда некоторое понятие рассматривается апостериорно, называется в теории экономических механизмов ex post. Можно рассматривать оптимальность по Парето ex ante, когда нет исхода, который бы в ожидании строго предпочел один агент и нестрого — все остальные. Получится более слабое определение.

Эту разницу между двумя определениями можно обобщить. Вообще говоря, в литературе о дизайне механизмов есть три разных временных постановки.

  1. Ex ante — до выбора исходов. Ex ante агенты знают только распределения (все, включая свое собственное). Информация у всех агентов одинаковая.
  2. Interim — после выбора исходов для каждого агента. То есть ситуация при такой постановке задачи рассматривается с точки зрения одного агента, который уже знает свой тип, но не знает типы других агентов (а распределения знает). Информация теперь у агентов разная — каждый знает свой тип.
  3. Ex post — после того как типы (точнее, стратегии) всех агентов стали известны. Здесь уже поздно что-либо менять; ex post ситуацию рассматривают в тех случаях, когда хотят показать, что ни один агент даже постфактум не пожалеет о сделанном выборе.

То же самое можно сформулировать чуть более конструктивно: о равновесиях или ограничениях можно говорить в трех случаях.

  1. Ex ante — в терминах распределений типов агентов.
  2. Interim — в терминах распределений типов агентов и одного конкретного типа одного агента.
  3. Ex post — в терминах вектора типов всех агентов.

Предположения об агентах

Мы вскоре увидим, что про агентов с произвольными множествами типов можно доказать массу отрицательных результатов. Фактически, с ними нельзя сделать ничего толкового, нельзя реализовать ни одной нормальной функции социального выбора (о том, какие функции ненормальные, мы поговорим в лекции "Теоремы Эрроу и Гиббарда-Саттертуэйта" ).

К счастью, в реальной жизни агенты все-таки не совсем какие угодно. В большинстве случаев про агентов можно сделать какие-то достаточно разумные предположения; и в этих предположениях, возможно, жизнь окажется не столь безрадостной, какой мы увидим ее в лекции "Теоремы Эрроу и Гиббарда-Саттертуэйта" .

Первое предположение, которое мы рассмотрим, достаточно естественно для экономической ситуации. Оно утверждает, что функция полезности агента — это то, насколько он заплатил дешевле, чем он сам оценивает эту вещь.

Определение 2.9. Квазилинейная функция полезности агента i с типом \theta_i имеет вид

u_i(o,\theta_i)=v_i(a,\theta_i)-p_i,

где исход o определяет выбор a\in\mathcal K из дискретного множества \mathcal K и выплату p_i, производимую агентом.

У агента с квазилинейными преференциями вместо общего вида функции полезности появляется тоже достаточно общего вида функция оценки (valuation function) v_i(a), a\in\mathcal K. Например, на аукционе, где продается одна вещь, {\mathcal K}=\{0,1\}агент либо получит эту вещь, либо не получит. А p_i в этом случае — выплата агента продавцу. Это достаточно естественное предположение в случае аукциона.

Есть еще одно предположение, которое в жизни часто не выполняется (хотелось написать "к сожалению", но, может, и к счастью). Мы в дальнейшем будем для простоты предполагать, что агенты нейтральны к риску (risk-neutral agents). Что это значит?

В экономике агенты различаются между собой по своему отношению к риску. Можно совсем упростить ситуацию: предположим, что агент может получить возможность с вероятностью \frac12 получить $100. Тогда:

  • осторожный (risk-averse) агент готов заплатить за эту возможность сумму, строго меньшую $50;
  • нейтральный к риску (risk-neutral) агент готов заплатить за эту возможность ровно $50;
  • рисковый (risk-loving) агент готов заплатить больше $50.

В жизни часто встречаются осторожные агенты (risk-averse agents). Сами посудите: вы готовы заплатить $999 за возможность подбросить монетку и выиграть $2000 при удачном ее выпадении? А нейтральные к риску агенты рассматривают это предложение как очень выгодную сделку.

В этом курсе мы не будем рассматривать осторожных агентов. Но кое-какие замечания об этом сделать все же хочется, хотя бы просто в качестве лирического отступления.

Осторожный агент

Рис. 2.4. Осторожный агент

В экономике часто рассматривают (мы, собственно, уже рассматривали) функции полезности (utility functions). Классическая гипотеза фон Неймана-Моргенштерна [62] утверждает, что полезность лотереи

U(p) = \sum\limits_{x}p(x)u(x),

где сумма берется по возможным исходам лотереи, а u(x)полезность агента от исхода x. Например, в лотерее с двумя исходами, z_1 и z_2, и вероятностью выпадения исхода z_1, равной p (пусть без потери общности, u(z_2)>u(z_1) ), ожидаемая полезность играющего в лотерею агента равна

U(p) = pu(z_1) + (1-p)u(z_2)

(на рис. 2.4 этой функции соответствует прямая между точками A и B ).

Основная суть осторожного агента в том, что для него получить просто сумму в z денег выгоднее, чем играть в лотерею с ожиданием \mathbf E[u] = z. Иначе говоря, полезность u(z) должна быть у него выше, чем U(p) (см. рис. 2.4). Это значит, что функция полезности денег для осторожного агента должна быть вогнутой (ее вторая производная, если она существует, должна быть отрицательной).

Можно даже выработать численный показатель того, насколько осторожен агент. Поскольку полезность определена с точностью до аффинных преобразований, просто вторая производная не подойдет. Зато подойдет так называемый коэффициент неприятия риска Эрроу-Пратта (Arrow-Pratt measure of absolute risk aversion, ARA) [4,67]:

A_u(w) = -\frac{u^{\prime\prime}(w)}{u^\prime(w)}.

Для этой меры справедлива следующая теорема (которую мы доказывать не будем).

Теорема 2.2. Для некоторых функций полезности u и v неравенство A_u(w) \ge A_v(w) верно тогда и только тогда, когда существует такая возрастающая вогнутая функция h, что u(w) = h(v(w)).

Проще говоря, если A_u доминирует над A_v, то u "более вогнутая", чем v. Посредством этой меры можно оценивать, насколько осторожен тот или иной агент.

К сожалению, не все результаты, которые мы докажем в этом курсе, распространяются на случай осторожных агентов. Более подробно об том, что происходит с осторожными агентами, можно прочесть в [35].

А напоследок — любопытный пример, в котором даже гипотезы об осторожных агентах недостаточно, чтобы объяснить происходящее в наших с вами головах.

Пример 2.3. Этот классический пример называется парадоксом Элсберга, хотя история его восходит еще к Кейнсу [l,18,32]. Рассмотрим урну, содержащую 30 красных шаров и 60 других шаров, которые либо черного, либо желтого цвета. Вы не знаете, сколько там черных шаров, а сколько желтых, но знаете, что в сумме тех и других ровно 60. Вам предлагают выбор из двух вариантов:

  • A. Вы получаете $100, если вытащите красный шар.
  • B. Вы получаете $100, если вытащите черный шар.

Кроме того, вам предлагают и другой выбор.

  • C. Вы получаете $100, если вытащите или красный, или желтый шар.
  • D. Вы получаете $100, если вытащите или черный, или желтый шар.

Поскольку доход одинаковый, то если вы последовательно предпочитаете A перед B, это значит, что вы верите, что вытащить красный шар строго более вероятно, чем вытащить черный шар. Аналогично, если вы последовательно предпочитаете C перед D, это значит, что вы верите, что вытащить красный или желтый более вероятно, чем вытащить черный или желтый. Заметим, что в такой ситуации, если вы верите, что красный вероятнее черного ( A лучше B ), то автоматически "красный или желтый" становится более вероятным, чем "черный или желтый" (к вероятности просто прибавляется непересекающееся событие, одинаковое в обоих случаях — читатель может сам строго выписать вероятности и убедиться в этом). То есть человек, выбирающий A, должен выбирать C. Этот результат совершенно не зависит от степени осторожности агента: любая альтернатива включает в себя риск, и следствие "если A лучше B, то C лучше D " сохраняется при любой поправке на осторожность (проверьте это!).

Однако проведенные эксперименты показывают, что большинство людей последовательно и строго предпочитают A перед B и D перед C! Попробуйте сами опросить своих знакомых — наверняка получится нечто подобное, если, конечно, опрашивать будете не специалистов по теории вероятностей.

Получается, что люди предпочитают известный, хотя и больший, риск неизвестному риску, что противоречит теории ожидаемой пользы, которой мы сейчас слегка коснулись. Этот парадокс можно объяснить, если принять, что агент пытается минимизировать не просто свой риск, но некоторую комбинацию из риска и своего знания о риске. Получается крайне интересная теория, так называемая info-gap decision theory, которую мы, к сожалению, в этой книге рассматривать не будем [9].

Конец примера 2.3.

< Лекция 1 || Лекция 2: 1234 || Лекция 3 >