societÀ italiana degli economisti - di.univr.it · societÀ italiana degli economisti xlvii...

136

Upload: leque

Post on 15-Feb-2019

226 views

Category:

Documents


0 download

TRANSCRIPT

SOCIETÀ ITALIANA DEGLI ECONOMISTI

XLVII Riunione Scientifica Annuale

SINTESI DELLE RELAZIONI E DELLE

COMUNICAZIONI

27-28 ottobre 2006

Palazzo di Economia Università degli Studi di Verona

Via dell’artigliere, 19

4

5

Comitato Scientifico della 47ª Riunione Scientifica Annuale Giorgio LUNGHINI (Presidente) Lilia COSTABILE e Marcello DE CECCO (Vicepresidenti) Giuliano CONTI (Segretario Generale) Giovanni DOSI, Riccardo FAINI, Luigi FILIPPINI, Elsa FORNERO, Alessandro VERCELLI Comitato Organizzatore Locale Diego LUBIAN (Presidente Comitato Organizzatore Locale) Federico PERALI (Direttore Dipartimento di Scienze Economiche) Francesco ROSSI (Preside della Facoltà di Economia) Alessandro MAZZUCCO (Rettore dell’ Università degli Studi di Verona) http://dse.univr.it/ Comitato di selezione delle Sessioni Libere Riccardo FAINI (Presidente), Marco DARDI, Luigi FILIPPINI, Franco MALERBA, Franco PERACCHI Ringraziamenti La 47ª Riunione Scientifica Annuale della Società Italiana degli Economisti è stata realizzata con il contributo di Banca Intesa Cattolica Assicurazione Consorzio per gli Studi Universitari Verona Scuola di Specializzazione per l’Insegnamento Secondario Dipartimento di Scienze Economiche Facoltà di Economia A queste istituzioni va il più vivo ringraziamento della Società Italiana degli Economisti e del Comitato Organizzatore.

6

7

47ª RIUNIONE SCIENTIFICA ANNUALE

UNIVERSITA’ DEGLI STUDI DI VERONA PALAZZO DI ECONOMIA VIA DELL’ARTIGLIERE, 19

27-28 OTTOBRE 2006

PROGRAMMA

VENERDI’ 27 OTTOBRE

MATTINA ore 9 Registrazione dei partecipanti ore 9,30–10 Indirizzo di saluto del Presidente della SIE, Giorgio LUNGHINI ore 10–11 Lezione: Francesco GIAVAZZI, “ Effetti non-Keynesiani delle politiche fiscali: quanto è robusta l’evidenza empirica?” ore 11,10–13 SESSIONI LIBERE: RELAZIONI ACCETTATE MACRO INTERNAZIONALE Coordinatore: Riccardo FIORENTINI

Relazioni:

• Euro Corporate Bonds Risk Factors: Carolina Castagnetti e Eduardo Rossi • International Reserve Glut: it is for Real?: Giulio Cifarelli e Giovanna Paladino • What is Global Excess Liquidity, and does it Matter?: Rasmus Rüffer e Livio Stracca

Discussione

8

INTERNAZIONALE REALE Coordinatore: Luca ZARRI

Relazioni:

• On Some Effects of International Fragmentation of Production on Comparative Advantages, Trade Flows, and the income of Countries: Salvatore Baldone, Fabio Sdogati e Lucia Tajoli

• Le misure dell’impulso del commercio estero alla crescita: quanto conta l’internazionalizzazione della produzione?: Emanuele Breda, Rita Cappariello e Roberta Zizza

• International Outsourcing and Productivity in Italian Manufacturing: Alessia Lo Turco Discussione

MERCATO DEL LAVORO E ISTRUZIONE Coordinatore: Martina MENON

Relazioni:

• The Generation Gap: an Analysis of the Decline in the Relative Earnings of Young Male Workers in Italy: Alfonso Rosolia e Roberto Torrini

• Making the Italian Labour Market More Flexible: an Evaluation of the Treu Reform: Dario Sciulli

• Entry Regulations and Labour Market Outcomes: Evidence from the Italian Retail Trade Sector: Eliana Viviano

Discussione

MACROECONOMIA Coordinatore: Nicola PAVONI

Relazioni:

• Equilibrium Existence and Policy Neutrality in Static LQ Games: Nicola Acocella e Giovanni Di Bartolomeo

• Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime: Barbara Annicchiarico, Nicola Giammarioli e Alessandro Piergallini

• Determinants of Fiscal Policies in the Euro Area: Roberto Golinelli e Sandro Momigliano

Discussione

9

CRESCITA Coordinatore: Giam Pietro CIPRIANI

Relazioni:

• Testing for Country Heterogeneity in Growth Models Using a Finite Mixture Approach: Marco Alfò, Giovanni Trovato e Robert J. Waldmann

• A Longitudinal Analysis of Venture Capital Financing and the Growth of New Technology-based Firm the Role of Investors’ Typology: Fabio Bertoni, Massimo G. Colombo e Luca Grilli

• How Do Output Growth Rate Distributions Look Like? Some Time-Series Evidence on OECD Countries: Giorgio Fagiolo, Mauro Napoletano e Andrea Roventini

• Convergence Across Italian Regions and the Role of Technological Catch-up: Marco Maffezzoli

Discussione

INDUSTRIALE Coordinatore: Angelo ZAGO

Relazioni:

• Partial Regulation in Vertically Differentiated Industries: Angela S. Bergantino, Etienne Billette De Villemeur e Annalisa Vinella

• Restructuring Public Transit Systems: Evidence on Cost Properties and Optimal Network Configuration from Medium and Large-Sized Companies: Carlo Cambini, Massimiliano Piacenza e Davide Vannoni

• Mixed Duopoly, Privatization and the Shadow Cost of Public Funds: Exogenous and Endogenous Timing: Carlo Capuano e Giuseppe De Feo

• L’equilibrio sul campo quando i club hanno obiettivi differenti: l’esperienza recente della serie A di calcio: Nicola Giocoli

Discussione

ore 13,10–14 Buffet

10

POMERIGGIO

ore 14,10-16 Assemblea Annuale dei Soci ore 16,10–18 SESSIONI LIBERE: RELAZIONI ACCETTATE INTERNAZIONALE REALE Coordinatore: Luca ZARRI

Relazioni:

• The Evolution of World Trade and the Italian “Anomaly”: a New Look: Michele Di Maio e Federico Tamagni

• On the Robustness of Robustness Checks of the Environmental Kuznets Curve: Marzio Galeotti, Matteo Manera e Alessandro Lanza

• Does Antidumping Use Contribute to Trade Liberalization? An Empirical Analysis: Michael O. Moore e Maurizio Zanardi

Discussione

MERCATO DEL LAVORO E ISTRUZIONE Coordinatore: Martina MENON

Relazioni:

• Scholarships or Student Loans?: Alessandro Cigno e Annalisa Luporini • The Effect of Education on Youth Mortality: Piero Cipollone, Debora Radicchia e

Alfonso Rosolia • Be as Careful of the Books you Read as of the Company you Keep. Evidence on Peer Effects

in Educational Choices: Giacomo De Giorgi, Michele Pellizzari e Silvia Redaelli

Discussione

11

MACROECONOMIA Coordinatore: Nicola PAVONI

Relazioni:

• Taylor Rule under Rule-of-Thumb Consumers and External Habits: an International Comparison: Giovanni Di Bartolomeo, Lorenza Rossi e Massimiliano Tancioni

• Mortgage Lending and the Choice between Fixed and Adjustable Rate: Monica Paiella e Alberto Franco Pozzolo

• Stochastic Discount Factor Volatility and the Coskewness Puzzle in the Cross-Section of Excess Returns: Valerio Potì

Discussione

CRESCITA Coordinatore: Giam Pietro CIPRIANI

Relazioni:

• Collective Norms in Basic Research and Economic Growth: Maria Rosaria Carillo e Erasmo Papagni

• Is Europe Becoming a Knowledge-Driven Economy? Evidence from EU Developed Regions: Alessandro Sterlacchini e Francesco Venturini

• The Long-Run Impact of ICT: Francesco Venturini

Discussione INDUSTRIALE Coordinatore: Angelo ZAGO

Relazioni:

• The Underlying Internal Learning Processes of Incremental and Radical Innovations: An Empirical Analysis of the Reggio Emilia Industrial Districts: Paolo Pini e Grazia D. Santangelo

• Political Economy of Mass Media: Public Good, News and Voting Behaviour: Cosimo Scagliusi

• Complementary between Heterogeneous Human Capital and R&D: can Job-Training Avoid Low Development Traps?: Sergio Scicchitano

Discussione

12

TEORIA Coordinatore: Eugenio PELUSO Relazioni:

• Effort Provision and Information Acquisition in Different Organizational Forms: Maria De Paola e Vincenzo Scoppa

• Optimal Information Releasing in Multidimensional Public Procurement: Nicola Doni • Su Mandler e l’indeterminatezza sraffiana: Saverio Maria Fratini e Enrico Sergio

Levrero • Uncovered Set Choice Rule: Michele Lombardi

Discussione

ore 18,10–19,30 Spazio di discussione: “L’insegnamento dell’economia nel triennio: quale futuro?” Coordinatore: Luigi FILIPPINI Relazione di Andrea BELTRATTI Intervento di Ignazio MUSU Discussione ore 20,30 Cena Sociale

13

SABATO 28 OTTOBRE

MATTINA

ore 9–13,30 SESSIONE AD INVITI Coordinatori: Elsa FORNERO e Giorgio LUNGHINI

• Contratti e mercati: quando l’economia sposa la storia: Maristella Botticini

• Crescita, istituzioni, distribuzione: Francesco Caselli • Partecipazione e mercato del lavoro sommerso: Pietro Garibaldi • Commercio internazionale e localizzazione geografica: Gianmarco

I.P. Ottaviano • Consumo e disuguaglianza: Luigi Pistaferri

Parteciperanno alla discussione:

- Andrea Brandolini - Alfredo Gigliobianco - Fabrizio Onida - Maurizio Zenezini

14

15

LEZIONE: Francesco GIAVAZZI

“Effetti non-Keynesiani delle politiche fiscali: quanto è robusta l’evidenza empirica”

16

“Effetti non –Keynesiani delle politiche fiscali: quanto è robusta l’evidenza empirica?” Francesco GIAVAZZI L’evidenza empirica su possibili effetti ʺnon-keynesianiʺ delle politiche di bilancio si fonda per lo più su dati macroeconomici relativi ai paesi OCSE, su un periodo tra l’inizio degli anni settanta ed oggi. La lezione, oltre a fare il punto brevemente sui risultati di questa ricerca, illustra i risultati di due approcci diversi. Il primo continua ad usare i dati OCSE tradizionali, ma identifica ʺinnovazioniʺ nella politica fiscale e stima gli effetti su diverse variabili macroeconomiche e in particolare su consumi e investimenti, di tali innovazioni. Il secondo utilizza dati micro (relativi alle famiglie tedesche) e si chiede in che misura le loro decisioni di risparmio e di offerta di lavoro rispondano all’aspettativa di modifiche nelle regole relative al sistema pensionistico pubblico.

17

SINTESI DELLE RELAZIONI E DELLE COMUNICAZIONI

18

SESSIONE LIBERA

MACRO INTERNAZIONALE Coordinatore: Riccardo FIORENTINI Relazioni:

• Euro Corporate Bonds Risk Factors: Carolina Castagnetti e Eduardo Rossi • International Reserve Glut: it is for Real?: Giulio Cifarelli e Giovanna Paladino • What is Global Excess Liquidity, and does it Matter?: Rasmus Rüffer e Livio Stracca

19

Euro Corporate Bonds Risk Factors

Carolina Castagnetti Dipartimento di economia politica e metodi quantitativi

Università di Pavia

Eduardo Rossi Dipartimento di economia politica e metodi quantitativi

Università di Pavia The credit risk, or risk of default, of a bond arises for two reasons: the magnitude and the timing of payoffs to investors may be uncertain. In other words, the risk of default of the issuer is accompanied by the recovery rate uncertainty. The effects of default risks on prices depend on how the default event is defined and the specification of the recovery in the event of a default. Because of this uncertainty, the corporate bonds should offer higher yields than comparable default-free bonds, i.e. government bonds. Consequently, a corporate bond trades at a lower price than a corresponding (in terms of maturity and coupon) government bond. The difference between the yield on the risky bond and the yield of the corresponding default-free bond is called the credit spread. Theoretical credit risk models tackle with the default risk in different ways. Structural models, in their most basic form, assume default at the first time that some credit indicator falls below a specified threshold value. In the Merton’s model (Merton, 1974) default occurs at the maturity date of debt provided the issuer’s assets are less than the face value of maturing debt at that time. Reduced-form models treat default as governed by a counting (jump) process with associated (possibly state-dependent) intensity process and, as such, whether or not an issuer actually defaults is an unpredictable event. The purpose of this paper is to study the determinants of credit spread changes in the Euro Corporate Bond Market. In particular, we are interested in understanding in which measure the implications for credit spread changes of structural credit risk models are verified in the context of Euro corporate bond market. The delta credit spread is given by the first difference of the spread between the corporate bond redemption yield and the government bond redemption yield with the same maturity. The delta credit spreads can be considered as a measure of the excess return of corporate bonds over government bonds. Despite of their increasing importance, only recently the literature has started to investigate the determinants of their behaviour. Collin-Dufresne, Goldstein and Martin (2001) show that variables that in theory determine the credit spreads changes have a rather limited explanatory power. Even though the empirical analysis of US corporate bond market is an obvious reference, the European market is characterized by marked differences. In this paper we provide some empirical evidence that the factors that are supposed to drive the American market are not so

20

decisive in the European market. Using a panel data model, we try to assess the relative importance of market and idiosyncratic factors in explaining the movement of credit spreads. We consider different approaches to the estimation of common factors using a panel of monthly redemption yields on a set of corporate bonds for a time span of three years. In the paper we refer to structural-model approach and to risk premia theory in order to identify the main factors that drive credit spread changes. In the seminal paper of Merton (1974) credit risk arises from the potentiality of default which occurs when the value of the assets fall below a certain threshold value. Structural credit risk models show important drawbacks. Besides that, they provide an intuitive framework to determine the main factors that drive credit spread changes. In our investigation we focus on the following determinants of credit spread changes:

• Changes in the government bond rate level • Changes in the slope of the government yield curve • Changes in the convexity of the government yield curve • Changes in liquidity • Mean and Standard Deviation of daily excess return of firm’s equity • Changes in Credit Quality • Changes in the Business Climate • Changes in Credit Market Factors • Credit Spread

Our corporate bond data are extracted from the IBOOX Euro Bond Index. This index is issued by seven major investment banks. We consider monthly delta credit spread over the period January 2001 through November 2004 for more than 200 issuers. In order to evaluate the cross-section dependence we start from a simple model where the delta credit spread depend on common observed factors, and individual specific components, We estimate each regression separately by OLS and then compute the correlation among the residuals. Third, we consider all the panel data and estimate a dummy variable model. This analysis shows that cross-section dependence is a feature of Euro delta credit spread. This evidence is in line with the analysis conducted by Collin-Dufresne, Goldstein and Martin (2001) for the the US corporate bond market. Collin-Dufresne, Goldstein and Martin (2001) remark that if there are omitted explanatory variables these must be searched among non-firm-specific factors. In order to consider the presence of such unobserved factors we consider a linear heterogeneous panel data model where the change in the delta credit spread is a function of observed common effects, observed individual specific regressors, and a vector of unobserved common factors. The unobserved factors is estimated by a two-step procedure. First, we estimate the coefficients of the individual factors, then, using the residuals, we consistently estimate by means of a principal component analysis the unobserved factor, and finally we reestimate a complete fixed effect model. First, we find that the influence of the equity market factor, measured by the corresponding equity volatility, is much less evident and strong than that found by Campbell and Taksler (2003) for the US corporate market. Second, we find evidence of a

21

systematic risk factor in the euro corporate bond market that is independent of the main common factors predicted by the theory, that in our case also include the government bond common factors. We show that this common risk factor is correlated with a market liquidity effect variable, which could be interpreted as a supply/demand shock. This factor seems to drive a relevant component of the systematic changes in credit spreads.

22

International Reserve Glut: It IS For Real?

Giulio Cifarelli Dipartimento di Scienze Economiche

Università di Firenze

Giovanna Paladino LUISS “Giudo Carli” e Sanpaolo IMI Economic Research Department

The average reserve holdings of a number of emerging markets have shown an appreciable rise in recent years, irrespectively of their official exchange rate regime, both in absolute terms and as percentages of GDP or of standard international trade and finance adequacy indicators, such as the level of imports or the short term external debt. They had reached $1.8 trillion by the end of 2004, up roughly $800 billions from 2002 and more than four times their 1994 level, exceeding the potential requirements of any foreseeable shock. So what is the purpose of possessing international reserves in excess of common measures of adequacy? This puzzle has attracted considerable attention from both practitioners and academics. Precautionary behavior on the part of the central banks, fear of the disruptive effects of an exchange rate depreciation (motivated by the experience of the financial crises and sudden capital reversals of the 1990s), difficult access to international capital markets and mercantilist export support are all possible explanations set out in a burgeoning literature. In this paper monthly data from January 1985 to December 2004 are used to investigate the national idiosyncratic and international determinants of reserve changes in five Asian and five Latin American countries. Idiosyncratic explanatory variables are mostly associated with the tenets of the benchmark buffer stock model of Frenkel and Jovanovic (1981), while international explanatory factors reflect the pivotal role played by the U.S. monetary authorities in emerging markets finance. The rapid growth of short term capital flows offers a reasonable explanation for the relevance of the precautionary demand for reserves of the buffer stock model. Capital flows to and from emerging markets, however, have specific characteristics that go beyond the standard approach. According to the buffer stock model, international reserves are explained by domestic factors only – reserve volatility, and a national bond yield which reflects the opportunity cost of holding them. This parameterization misses some relevant determinants of reserve behavior. International financial flows involving emerging markets are highly volatile and are affected by US monetary policy. Over the last two decades convincing evidence shows that financial turbulence (and the ensuing impact on reserve holdings) is not restricted to the epicentre of a crisis but tends, usually, to spread from country to country within and even across geographical areas. The two-step estimation procedure implemented in this paper is meant to capture these aspects of emerging markets finance. Cointegration reserve relationships are independently estimated, at first, for each country. The corresponding residual time series are assumed to quantify the fraction of the long

23

run reserve holdings which cannot be accounted for by the buffer stock model explanatory variables. Their correlation is carefully analyzed in a second step and the relevance of common drivers is assessed using principal components analysis. Geographical area co-movements are identified; the behavior of the first principal component - which explains almost 40 percent of the variability of the residuals of the Asian reserve cointegration relationships - turns out to be affected by the U.S. federal funds and real effective exchange rate. The signs of the estimated coefficients suggest that reserve residual co-movements reflect both the generalized impact of U.S. monetary policy due to a “fear of floating” reaction (Calvo and Reinhart, 2002) and a common desire to prevent real exchange rate appreciation. The latter may be related to a mercantilist exchange rate policy in support of exports (Aizenman and Lee, 2005 ). The paper improves upon previous research in the following respects: - the empirical section includes close analysis of the time series; additive outliers that

may affect both the unit root tests and the cointegration results are disposed of using approaches set forth by Perron and Rodríguez (2003) and Nielsen (2004).

- Reserves volatility clustering is modelled using conditional volatility techniques; the IGARCH parameterizations produced by the data suggest that the volatility estimates in previous research, which relied on unconditional variance estimation, may well be biased.

- The two-step estimation approach sheds light on some controversial aspects of exchange rate management, such as “fear of floating” and mercantilist behavior. A distinction is drawn between the national (idiosyncratic) and the international factors that affect reserve holdings. The former enter into the long run cointegration relationships while the latter influence the disequilibrium residuals, which tend to co-move across countries. Principal components analysis is then used to associate their common drivers to US monetary and exchange rate policy. Contrary to common belief and, indeed, to the implications of standard adequacy measures, our analysis suggests that current excess reserve holdings are not consistently larger than their 1995-2004 averages.

24

What is global excess liquidity, and does it matter?

Rasmus Rüffer

European Central Bank, Directorate General Economics

Livio Stracca

European Central Bank, Counsel to the Executive Board

Over recent years, market participants and economic analysts (including policy-making institutions such as the BIS and the ECB) have repeatedly expressed concerns about the excessive accumulation of liquidity in the world economy by, especially in relation to its possible implications for price and financial stability at a global level. Concerns about the impact on asset prices, in particular, have been repeatedly voiced. Measuring excess liquidity is not a straightforward matter, however, especially in modern financial systems in which central bank-created (i.e. “outside”), high-powered money often represents only a tiny fraction of monetary and credit aggregates which are normally considered relevant for explaining aggregate demand. Some observers thus propose to compare broad, i.e. “inside” monetary aggregates with nominal spending at a global level, and to analyse the behaviour and effects of the resulting gap, i.e. global excess liquidity.. The contribution of this paper to this policy debate is threefold: • First, we endeavour to provide some conceptual analysis of the meaning of “excess

liquidity” in a world of developed financial markets, where any relevant definition of liquidity cannot be related to central bank-driven injections of high-powered money, but rather reflects the endogenous choice of households and firms (endogenous money). Moreover, we provide a brief survey of the existing literature on the cross-border transmission of monetary shocks, both theoretical and empirical, in order to shed some light on the possible channels though which shocks to excess liquidity could be transmitted across borders.

• Second, we collect data on several measures of excess liquidity for a relatively large number of industrialised and developing countries and we analyse the co-movement across them by means of a dynamic factor analysis. However, more than in the co-movement in this paper we are focused on studying the possible cross-country spill-over of excess liquidity. Therefore, we also analyse whether the common dynamic factor – which we interpret as a measure of ʺglobal excess liquidityʺ – Granger-causes excess liquidity and nominal spending (measured by nominal GDP) in individual countries.

• Third, we estimate a global VAR model including a measure of global liquidity, proxied by a broad monetary aggregate in the G5 countries, in order to identify the impact of a shock to excess liquidity on output and prices at the level of the world economy. In a further step of the analysis we extend the global VAR model by

25

including some domestic variables for the world’s two largest economies, the US and the euro area. In particular, we analyse the impact of a shock to global excess liquidity on a number of domestic variables. In this way, we are able to isolate the impact of a shock to global excess liquidity that is arguably purely monetary in nature, after controlling for the influence of other global variables, notably output and the price level.

The main conclusions of the study are the following: • At a global level, we find further support to the conjecture that monetary aggregates

may convey some useful information on variables (such as a “spectrum of yields”) which matter for aggregate demand and hence inflation. Thus we conclude that excess liquidity is a useful indicator of inflationary pressure at a global level and therefore merits some attention in the same way as the level of interest rates, if not possibly more.

• At the same time, the channels though which excess liquidity might be transmitted across borders are both theoretically ambiguous and empirically rather elusive. By means of a Granger causality analysis we are able to find only scattered evidence of cross-border transmission. However, the SVAR analysis (thanks to the sharper focus of the structural approach) is able to find evidence of a significant spill-over of global liquidity on the euro area economy, which is in line with the existing empirical literature suggesting that foreign monetary shocks have an expansionary effect.

• It is also interesting to note that the impact of global excess liquidity on the US economy is found to be significantly more limited and less straightforward to explain. It appears that global liquidity plays a different and more limited role for the “leader” currency in the international monetary system. This is an issue which might be worth taking up in future research.

26

SESSIONE LIBERA

INTERNAZIONALE REALE Coordinatore:Luca ZARRI Relazioni:

• On Some Effects of International Fragmentation of Production on Comparative Advantages, Trade Flows, and the income of Countries: Salvatore Baldone, Fabio Sdogati e Lucia Tajoli

• Le misure dell’impulso del commercio estero alla crescita: quanto conta l’internazionalizzazione della produzione?: Emanuele Breda, Rita Cappariello e Roberta Zizza

• International Outsourcing and Productivity in Italian Manufacturing: Alessia Lo Turco

27

On some effects of international fragmentation of production on comparative advantages, trade flows, and the income of countries

Salvatore Baldone, Fabio Sdogati, Lucia Tajoli

Department of Management, Economics and Industrial Engineering, Politecnico di Milano

Nei modelli tradizionali di commercio internazionale, basati su differenze tecnologiche tra paesi oppure su differenze nella dotazione fattoriale relativa, la composizione merceologica e l’orientamento geografico degli scambi internazionali vengono derivati dalle condizioni di equilibrio dei paesi in autarchia. Una delle ipotesi sottostanti questi modelli tradizionali, ovvero che i processi produttivi siano integrati e avvengano all’interno di un unico paese, risulta però sempre meno giustificata, indebolendo il significato dell’equilibrio autarchico come termine di confronto. L’evidenza empirica mostra, infatti, che in misura sempre maggiore processi produttivi che in passato avvenivano in modo integrato vengono segmentati e suddivisi tra unità produttive localizzate in paesi diversi, generando così delle reti internazionali di produzione che collegano siti produttivi anche molto distanti. Come conseguenza di ciò, una parte crescente di scambi commerciali tra paesi è costituita da beni intermedi, componenti e semi-lavorati che vengono spostati da un paese all’altro per essere trasformati e assemblati. L’obiettivo di questo lavoro è mostrare che può essere fuorviante studiare gli scambi internazionali tra paesi e le relative implicazioni per il benessere nazionale se non si tiene adeguatamente conto dei processi in atto di frammentazione internazionale della produzione, dal momento che questi processi influenzano una parte sempre maggiore degli scambi tra paesi, scambi che risultano avere determinanti e implicazioni in parte diversi dagli scambi tradizionali di beni finiti. In questo lavoro si illustra infatti come questa nuova organizzazione internazionale dei processi produttivi abbia effetti rilevanti per almeno tre aspetti della teoria del commercio internazionale e delle sue applicazioni empiriche. Prima di tutto, è possibile dimostrare che la frammentazione internazionale della produzione indebolisce il concetto di vantaggio comparato, così come viene normalmente definito, quando si tratta di spiegare la specializzazione internazionale di un paese e la direzione dei suoi scambi commerciali, mentre assumono maggiore importanza i vantaggi assoluti dei paesi. In secondo luogo, si mostra come le misure utilizzate per misurare empiricamente i vantaggi comparati rivelati di un paese siano sistematicamente distorte se nel loro calcolo non viene tenuto conto delle differenze tra scambi di beni finali e scambi di beni semi-lavorati che entrano nei processi di perfezionamento all’estero. Infine, attraverso la stima di un modello di domanda aggregata che tiene esplicitamente conto degli scambi di beni intermedi destinati al perfezionamento, si verifica che gli scambi di beni finali e quelli di perfezionamento hanno un impatto diverso sull’andamento macroeconomico, confermando la nostra ipotesi che la partecipazione di un paese ai processi di frammentazione internazionale della produzione abbia un effetto specifico e rilevante sui tassi annui di crescita dell’economia nazionale.

28

Le misure dell’impulso del commercio estero alla crescita: quanto conta l’internazionalizzazione della produzione?

E. Breda, R. Cappariello, R. Zizza

Banca d’Italia, Servizio Studi Integrazione mercati mondiali Crescente internazionalizzazione della produzione

- IDE - acquisizione prodotti intermedi dall’estero

- modifica della natura delle importazioni (più orientata verso l’acquisizione di input produttivi) - aumento della quota di beni e servizi incorporati nella produzione Letteratura Feenstra e Hanson (1996): aumento della quota di input intermedi importati sul totale negli Usa dal 5,5 all’ 11,6 per cento dal 1972 al 1990 (tavole I-O). Hummels et al. (1998, 2001): crescita della quota di b/s contenuti nelle esportazioni negli anni ottanta per paesi OCSE . BCE (2005): aumento del contenuto di importazioni (CI) delle esportazioni tra il 1995 e il 2000 nelle maggiori economie dell’area dell’euro. Isae (2005): riduzione dell’attivazione degli input importati da parte delle esportazioni tra il 1990 e il 2000 per l’Italia. Altri lavori (Feenstra e Hanson, 1996 e 1999; Amiti e Wei, 2004; Hijzen et al., 2004) utilizzano misure dell’internazionalizzazione basate sull’uso delle tavole I-O per valutarne l’effetto sul mercato del lavoro. OBIETTIVO DEL LAVORO: misurare per l’Italia il valore dei beni e servizi contenuto nelle esportazioni dei diversi settori, ottenendo così:

- indicatori sintetici del grado di internazionalizzazione del processo produttivo a livello settoriale

- misura dell’impulso della domanda estera alla crescita alternativa e più accurata rispetto a X e a (X-M)

Contenuto di importazioni delle esportazioni calcolato sulla base delle tavole input-output (a prezzi correnti, anni 1995 e 2000)

• si evita una classificazione arbitraria dei beni tra intermedi e altre categorie • beni-servizi importati e incorporati nelle esportazioni indipendentemente dal tipo

di relazione instaurata dall’impresa con il fornitore estero

EXPAIAuCI DM1)( −−=

29

• misura esaustiva, ma non consente di distinguere tra le diverse modalità di internazionalizzazione

Quanto conta l’aumento del prezzo del petrolio? Esercizi alternativi:

• assumendo che l’input importato di minerali energetici sia pari a zero, ovvero che tutti gli input provenienti da questo settore siano di origine domestica;

• ipotizzando un input di prodotti energetici nullo sia nella componente importata che in quella domestica.

30

Il confronto internazionale

L’impulso del commercio estero alla crescita del PIL Perché non usare X (esportazioni lorde)? SOVRASTIMA del valore aggiunto prodotto dal canale estero, perché X di un settore incorporano anche la sua intensità di impiego di beni intermedi importati (> frammentazione < produzione interna attivata dalle X) Perché non usare X-M (esportazioni nette)? SOTTOSTIMA del valore aggiunto prodotto dal canale estero, perché le M che si sottraggono alle X includono anche i beni destinati alla domanda finale interna Impiego delle esportazioni al netto della sola parte di importazioni in esse contenuta Contributo medio annuo del canale estero alla crescita del PIL (che nel periodo è stata pari all’1,9 per cento annuo) tra il 1996 e il 2000:

- +0,6 p.p. utilizzando X - +0,3 p.p. utilizzando X-CI - -0,5 p.p. utilizzando X-M

Analisi dei contributi dei settori manifatturieri […]

31

CONCLUSIONI Modesta crescita del CI delle esportazioni italiane di beni e servizi tra il 1995 e il 2000. La crescita riflette soprattutto il rialzo dei prodotti energetici. Grado di internazionalizzazione dell’Italia minore rispetto a quella degli altri paesi. FUTURI SVILUPPI Aggiornamento dei risultati per l’Italia attraverso l’utilizzo delle nuove tavole I-O in via di pubblicazione da parte dell’Istat. Questo consentirà anche di stimare l’evoluzione più recente del processo di internazionalizzazione dell’Italia.

32

International Outsourcing and Productivity in Italian Manufacturing

Alessia Lo Turco Il dibattito sugli effetti dell’outsourcing internazionale non è di recente costituzione, specialmente per l’analisi delle conseguenze del fenomeno della disuguaglianza salariale tra lavoratori skilled e unskilled negli USA. Partendo dalla considerazione che le imprese rispondono alla competizione internazionale spostando attività “unskilled” all’estero in paesi con salari più bassi rispetto a quelli domestici, Feenstra e Hanson (AER 1996) stimano, per i settori industriali (4 digit SIC) USA nel periodo 1972-1992, la relazione tra la domanda relativa di lavoratori skilled e l’outsourcing internazionale. I risultati indicano che l’outsourcing può spiegare tra il 30 e in 50% dell’incremento della quota di retribuzione dei lavoratori skilled tra il 1979 e il 1992. Tuttavia, il progresso tecnologico è stato più volte indicato come il piú probabile responsabile della crescente disuguaglianza tra lavoratori skilled e unskilled. Quindi, Feenstra e Hanson (QJE, 1999) estendono l’analisi al ruolo contemporaneo dell’outsourcing internazionale e del progresso tecnologico nel determinare la disuguaglianza salariale nei paesi industrializzati. L’outsourcing di materiali si manifesterebbe al pari del progresso tecnologico neutrale come uno spostamento verso l’esterno della funzione di produzione (grazie alla maggior varietá di input importati e all’aumento di produzione dovuto a stadi effettuati all’estero) per le attivitá che continuano ad essere svolte internamente. Per di piú lo stesso, generando una modifica della domanda relativa di lavoro a favore dei non production workers, si manifesterebbe esattamente come skilled biased technological change per l’accresciuta intensitá di non production workers che segue all’outsourcing. Da qui la difficoltá in pratica di distinguere progresso tecnologico ed effetti dell’outsourcing nell’osservazione di dati aggregati. Per questa ragione, gli autori stimano l’influenza dell’outsourcing di materiali sulla TFP e, poi, dall’effetto su TFP e su prezzi industriali viene isolato l’effetto della variazione dell’outsourcing e del progresso tecnologico sulla variazione della quota di non production workers a livello industriale. I risultati sostengono l’idea che sia l’outsourcing internazionale che la spesa in computer hanno giocato un ruolo molto importante nell’incremento del salario relativo per i “non-production workers”. Egger ed Egger (2001) stimano la relazione tra international outsourcing e produttività dei lavoratori unskilled in Europa ta il 1992 e il 1997. I risultati mostrano un effetto negativo sulla produttività dei lavoratori unskilled nel breve periodo, che si trasforma in un effetto positivo nel lungo periodo. Inoltre, il cambiamento nell’intensità di outsourcing dal 1993 rende conto di un aumento del 3.3% della produttività dei low skilled. L’effetto negativo di breve periodo viene giustificato in diversi modi: in primo luogo, lo shift di produzione all’estero per un dato output e un dato impiego dei fattori, riduce la produttività dei lavoratori low skilled a prescindere dall’effetto di scala (con DRS se si riduce la produzione aumenta la produttività media del fattore); per un dato ammontare di impiego di lavoro unskilled, il declino nello stock di capitale per addetto alla produzione ha un impatto negativo sulla produttività dei low skilled; infine, la discrepanza tra risultati di breve e di lungo, si può spiegare con la rigidità nel mercato del lavoro e le pressioni sociali che possono impedire l’aggiustamento

33

istantaneo dei processi produttivi. Egger, Pfaffermayr e Wolfmayr-Schnitzer (2001), seguono Feenstra and Hanson (1999) nell’uso del Tornqvist index per il caso dell’industra manifatturiera austriaca: dello 0.9% d’incremento medio della TFP é possibile attribuire all’outsourcing 0.2 punti percentuali. Infine, Amiti e Wei (NBER 2006) analizzano la relazione tra outsurcing di materiali e di servizi e produttivitá nei settori industriali degli Stati Uniti tra il 1992 e il 2000. Un aspetto distintivo del lavoro è l’attenzione rivolta all’ousourcing di servizi come veicolo importante di spillover di conoscenza. L’approccio è simile a quello di Feenstra e Hanson (1999) nell’ipotizzare che l’outsourcing abbia un impatto sulla TFP, ed il modello empirico evidenzian le contesto di una tipica funzione di produzione, la relazione tra la variazione dell’intensità di outsourcing e la crescita della produttività (controllando, in alcune specificazioni, anche per il ruolo svolto dal progresso tecnologico). Dalla stima del modello emerge che l’outourcing dei servizi spiega l’11% della crescita della produttività nel periodo considerato, quello di materiali spiega solo un 5%. Metodologia- La metodologia è simile a quella adottata da Amiti e Wei (2006): si specifica una funzione di produzione e si ipotizza che le variabili di interesse influenzi la TFP; in tutte le specificazioni nelle differenze prime si controlla anche per il ruolo svolto dall’investimento settoriale in R&S e da eventuali trend temporali diversi per settore. Si studiano gli effeti dell’outsourcing dei materiali e dei servizi dulla produttivitá dei settori manifatturieri italiani tra il 1985 e il 1997. La disponibilitá di dati é limitata dalla scarsa disaggregazione settoriale(13 settori manifatturieri), nella dimensione cross-section, e, nella dimensione temporale, dalla disponibilitá dei dati sull’outsourcing(disponibili fino al 1997). L’intensitá di outsourcing è misurata direttamente dalle tavole input-output come quota degli input intermedi importati sul totale degli input intermedi: per i materiali sono state adottate le definizioni “narrow” e “broad” di Feenstra e Hansen (1999), e per i servizi l’analisi si é focalizzata sul ruolo delle importazioni dei servizi finanziari e alle imprese. A parte l’adozione di un ampio range di misure di outsourcing, tra cui, in particolare, l’outsourcing dei servizi, l’aspetto distintivo del lavoro é l’analisi del caso della manifattura italiana in un arco di tempo che seppur non recentissimo si presenta significativo per lo studio del fenomeno. Alcuni grafici mostrano come la relazione tra outsourcing dei materiali e produttivitá del lavoro sia positiva soprattutto a partire dai primi anni 90, per l’outsourcing dei servizi la relazione é un po’meno evidente. Se si osservano poi le relazioni nei tassi di crescita tra produttivitá e intensitá di outsourcing nel periodo precedente per settori e per anno, non emerge un chiaro pattern per la relazione l’outsourcing di materiali-crescita della produttivitá, quest’ultima invece, appare maggiore nei settori e negli anni in cui l’intensitá media dell’outsourcing dei servizi al periodo precedente é piú bassa. Il modello viene stimato in differenze su un panel di 13 settori per 13 anni, dal 1985 al 1997; gli stimatori adottati sono il LSDV, e lo stimatore GMM nelle differenze prime (Arellano e Bond, 1998). Nonostante la piccola dimensione del panel, quest’ultimo stimatore é stato adoperato per controllare che i risultati ottenuti dal LSDV non fossero inficiati dall’endogeneitá dei regressori e, in particolare, delle variabili di interesse. Le stime infine sono state ripetute effettuando una versione robusta dell’OLS (sempre controllando per gli effetti fissi settoriali e temporali) che corrisponde ad una

34

sorta di Weighted Least Squares, al fine di smorzare il peso di eventuali outliers nella definizione dei risultati. Il modello é stato poi stimato, con l’ausilio dei tre stimatori suesposti, prendendo differenze di due e tre periodi per controllare l’effetto di possibili errori di misura nei dati e, infine, introducendo, congiuntamente o alternativamente all’effetto contemporaneo, il ritardo primo delle variabili di interesse. -Sintesi dei Risultati Il ruolo dell’outsourcing dei materiali resta sempre positivo in tutte le specificazioni e per tutti gli stimatori adottati: il coefficiente stimato per la definizione “narrow”é sempre piú piccolo di quello stimato con la definizione “broad”, l’effetto ritardato, poi, é positivo ma mai significativo. Con l’uso delle differenze di due e tre periodi i risulati sono confermati. Il ruolo dell’outsourcing dei servizi finanziari e alle imprese appare piú controverso: l’effetto contemporaneo appare positivo tuttavia il coefficiente é piccolo e non significativosoprattutto con l’introduzione del ritardo, mentre l’effetto di questo é negativo e significativo in tutte le specificazioni stimate con LSDV e GMM. Con le differenze di due periodi delle variabili l’effetto negativo si rileva giá nella specificazione senza ritardi, ed é confermato nella specificazione con l’aggiunta del ritardo che, da solo non é mai significativo. Con le differenze su tre periodi la variabile é scarsamente signficativa e solo in una specificazione. Come ulteriori prove di robustezza si é stimato il modello nelle differenze prime per il sottoperiodo 1991-1997 e sostituendo l’output al valore aggiunto come variabile dipendente: i risultati restano sostanzialmente analoghi. -Conclusioni Si conferma, rispetto alla letteratura esistente, il ruolo positivo dell’outsourcing dei materiali: l’incremento di un punto percentuale della crescita dell’intensitá di outsourcing puó spiegare l’aumento di 0.10-0.15 del tasso di crescita della produttivitá. Contrariamente all’evidenza emprica sugli USA, il contributo dell’outsourcing dei servizi é piú controverso e dai risultati nelle differenze prime delle variabili, confermato, in parte, dalle differenze di ordine superiore, il contributo sembrerebbe negativo. L’outsourcing internazionale dei servizi non é stato oggetto di attenzione specifica da parte della letteratura teorica esaminata. Il fenomeno in esame implica la sostituzione di attivitá ad alta produttivitá svolte da personale “skilled”e in linea teorica l’effetto di questo tipo di outsourcing potrebbe essere opposto a quel che si verifica con l’outsourcing di materiali. Mentre quest’ultimo si manifesta come uno skill-biased technological progress per il suo effetto sul salario relativo e ,dunque, sulla la produttivitá relativa degli skilled, l’outsourcing dei servizi, ceteris paribus, potrebbe apparire equivalente ad uno skilled biased technological regress se riduce la domanda relativa e il salario relativo dei “non-production workers” all’interno dei settori. L’effetto complessivo sulla produttivitá totale potrebbe essere negativo se la sostituzione di attivitá skilled con le attivitá unskilled, meno produttive, é tale da abbassare la produttivitá media del settore. Recente evidenza empirica sui settori industriali italiani mostra come l’outsourcing dei servizi sia correlato negativamente al salario di skilled e unskilled soprattutto nei settori non tradizionali. Un possibile sviluppo della ricerca riguarda la possibilitá di indagare l’analisi degli effetti settoriali dell’attivitá di outsourcing svolta dai settori a monte e a valle, applicando al tema in questione una metodologia simile a quanto esposto in Mun e Nadiri (2002) per l’analisi dell’effetto delle esternalità dell’IT attraverso backward and forward linkages negli USA.

35

SESSIONE LIBERA

MERCATO DEL LAVORO E ISTRUZIONE Coordinatore: Martina MENON Relazioni:

• The Generation Gap: an Analysis of the Decline in the Relative Earnings of Young Male Workers in Italy: Alfonso Rosolia e Roberto Torrini

• Making the Italian Labour Market More Flexible: an Evaluation of the Treu Reform: Dario Sciulli

• Entry Regulations and Labour Market Outcomes: Evidence from the Italian Retail Trade Sector: Eliana Viviano

36

Il gap generazionale: un’analisi del declino in Italia dei salari relativi dei giovani lavoratori maschi

Alfonso Rosolia e Roberto Torrini*

Banca d’Italia In Italia negli ultimi 10 anni la crescita dell’occupazione è stata molto elevata in rapporto alla dinamica del prodotto e il tasso di disoccupazione è lentamente sceso sotto la media dell’area dell’euro. Alle origini di tali risultati vi sono le politiche dei redditi avviate agli inizi dello scorso decennio e una graduale riforma degli assetti istituzionali, che ha favorito una crescente flessibilità contrattuale soprattutto per i nuovi entranti nel mercato del lavoro, riducendo il costo complessivo del lavoro relativamente agli altri fattori produttivi (Brandolini et al., 2006). Da più parti si è tuttavia sottolineato il rischio che riforme parziali rivolte soprattutto a favorire forme contrattuali atipiche possano dar luogo nel lungo periodo a una struttura duale del mercato lavoro, che non permetta il pieno sviluppo professionale dei più giovani, maggiormente interessati dai cambiamenti in atto. Allo stesso tempo una crescente preoccupazione si è fatta strada riguardo ai costi dei crescenti squilibri demografici. Le riforme del welfare e del sistema pensionistico non si sono mosse, infatti, nella direzione di un riequilibrio degli oneri tra generazioni. La ricchezza pensionistica di coloro che sono entrati nel mercato del lavoro negli ultimi 10 anni si è così nettamente ridotta relativamente a quella dei lavoratori più anziani (Mazzaferro e Toso, 2006), mentre le condizioni del mercato del lavoro non sembrano permettere ai più giovani una facile transizione verso la piena indipendenza economica rispetto alle famiglie di origine (Livi Bacci, 2005; Rosina, 2006). Questo lavoro contribuisce al dibattito proponendo un’analisi delle dinamiche dei differenziali salariali tra lavoratori maschi giovani e più anziani, cercando di valutare quanto questi andamenti riflettano le condizioni di domanda e offerta e quanto invece risentano dei cambiamenti degli assetti istituzionali. Prima di illustrare i risultati empirici del lavoro è utile, tuttavia, richiamare i fattori sottostanti la dinamica dei salari lungo il ciclo di vita di un individuo. La crescita dei salari può essere vista come il risultato di due fattori principali: la dinamica aggregata dei redditi da lavoro, dovuta soprattutto ai guadagni di produttività del sistema, e l’accumulazione di esperienza lavorativa. Equazioni dei salari basate su dati cross-section confrontano i redditi di lavoratori osservati in momenti diversi del loro ciclo di vita, nell’assunzione implicita che i lavoratori con meno esperienza sperimenteranno in futuro le stesse condizioni osservate per i lavoratori più anziani. Ci sono varie ragioni tuttavia perché diverse coorti di lavoratori possano seguire percorsi dissimili. Per esempio, i fattori tecnologici possono determinare un cambiamento nei rendimenti dell’esperienza lavorativa; nel caso di imperfetta sostituibilità tra lavoratori di età diversa, le coorti più numerose possono incorrere in riduzioni del loro salario relativo; cambiamenti nei fattori istituzionali possono influire in maniera differenziata sui salari di lavoratori in diverse fasi del loro ciclo di vita.

* Le opinioni qui espresse non riflettono necessariamente quelle delle Banca d’Italia.

37

I dati dell’Indagine sui Bilanci delle Famiglie della Banca d’Italia mostrano come agli inizi degli anni ‘90 si sia verificata una drastica riduzione del salario dei lavoratori tra i 19 e i 30 anni relativamente al salario dei lavoratori in età compresa tra i 31 e i 60 anni. Nel 2004 il differenziale in termini di salario mensile era di circa il 35 per cento a fronte del 25 per cento alla fine degli anni settanta e del 20 per cento alla fine degli anni ottanta. Stimando delle equazioni dei salari per singolo anno di indagine, e ricavando i rendimenti dell’esperienza si osserva come il salario reale di ingresso, ovvero il salario dei lavoratori senza esperienza lavorativa, sia aumentato fino alla fine degli anni ottanta per poi diminuire fino a tornare ai livelli di partenza. Simultaneamente, a fronte di una riduzione del livello di ingresso, la relazione tra salario ed esperienza mostra un aumento dell’inclinazione nel corso degli anni novanta. Questo andamento deve tuttavia essere considerato come l’effetto meccanico dell’ampliarsi del differenziale tra lavoratori più giovani e lavoratori più anziani che, in stime cross-section, si riflette sul rendimento apparente dell’esperienza. Al fine di valutare correttamente gli eventuali cambiamenti nei profili per età dei salari, abbiamo analizzato i pattern seguiti dalle coorti di lavoratori entrate nel mercato del lavoro tra la metà degli anni settanta e l’inizio di questo decennio, avvalendoci di un panel di lavoratori impiegati nel settore privato non agricolo, estratto dagli archivi dell’Inps. Questi dati confermano il declino dei salari di ingresso per i giovani entrati nel mercato del lavoro a partire dagli anni novanta. L’andamento dei salari delle diverse coorti di lavoratori risulta ben spiegato da un modello che interpreta la dinamica salariale come il risultato di un comune trend temporale (riassuntivo delle condizioni di crescita macroeconomica), di un comune effetto esperienza (misurata dall’età dei lavoratori) e da specifici effetti coorte che, tenuto conto del trend macroeconomico, misurano eventuali traslazioni del profilo dei salari lungo il ciclo di vita. Stimando questo modello su coorti di lavoratori entrate nel mercato del lavoro in diversi periodi ad un’età compresa tra i 21 e i 22 anni, gli effetti coorte mostrano una caduta dei salari reali di circa il 20 per cento per le coorti più recenti rispetto a quelle entrate negli ‘80. Effetti simili sono stati ricavati dalla stima dello stesso modello per i lavoratori entrati nel mercato del lavoro in un’età compresa tra i 25 e i 26 anni, potenzialmente in possesso di un più elevato titolo di studio (informazione non disponibile negli archivi dell’Inps). Al deterioramento nelle retribuzioni all’ingresso, non sembra quindi corrispondere un’accelerazione dei percorsi di carriera. Venendo alle cause di questi andamenti, nel lavoro si mostra come i fattori di offerta non siano in grado di darne conto. A meno di un implausibile deterioramento della produttività dei lavoratori più giovani, la progressiva riduzione della dimensione delle coorti di lavoratori che si sono affacciate nel mercato del lavoro negli anni ‘90 non è compatibile con una riduzione del loro salario relativo. Escludendo i fattori di offerta, la spiegazione più plausibile di questi andamenti è da ricercarsi in un cambiamento del contesto istituzionale. Due possibili spiegazioni possono essere date degli andamenti osservati. La riduzione del salario relativo delle coorti più giovani potrebbe essere il risultato di un aggiustamento di squilibri maturati tra la fine degli anni settanta e gli anni ottanta, in cui alcuni meccanismi di determinazione salariale come la scala mobile potrebbero aver determinato un’eccessiva compressione salariale a favore dei lavoratori

38

più giovani con salari inferiori. Se questo fosse il caso, tuttavia, unitamente a una riduzione del salario di ingresso dovremmo osservare un aumento effettivo del rendimento dell’esperienza, con un permanente incremento del differenziale salariale tra lavoratori giovani e anziani e con un’accelerazione della progressione salariale per i lavoratori appartenenti a una stessa coorte. Questo però non è coerente con i dati a nostra disposizione, che mostrano una riduzione dei salari di ingresso ma non una più rapida crescita salariale per le coorti di lavoratori più giovani. Gli andamenti osservati sembrano quindi meglio spiegati da un modello duale di determinazione salariale, in cui i lavoratori con maggiore esperienza, a fronte di tassi di disoccupazione elevati, sono protetti dalla concorrenza di giovani disoccupati. In questo contesto, se il salario non può differire tra lavoratori con uguali caratteristiche, si osserverà un elevato livello di disoccupazione tra i nuovi entrati nel mercato. Se invece, a parità di produttività, si permette di fissare salari più bassi per i nuovi entrati, proteggendo al contempo l’impiego e la remunerazione dei lavoratori più anziani, si osserverà l’aprirsi di un differenziale a svantaggio delle nuove coorti di lavoratori. Dato che a loro si rivolge una domanda residuale, il salario da essi percepito risulterà inferiore a quello di equilibrio concorrenziale. Questo semplice modello di determinazione salariale potrebbe dar conto dei fenomeni osservati nel corso degli anni ‘90: a fronte di elevate difficoltà nel mercato del lavoro, particolarmente gravi per i giovani, sono state adottate politiche salariali e strumenti contrattuali che si sono tradotte in una elevata moderazione dei salari reali medi, ma che hanno agito soprattutto al margine riducendo i salari di ingresso, determinando una permanete perdita di potere di acquisto delle retribuzioni per le nuove coorti rispetto a quelle più anziane.

Riferimenti bibliografici

Brandolini A., Casadio P., Cipollone P., Magnani M., Rosolia A., Torrini R. (2006), Employment Growth in Italy in the 1990s: Institutional Arrangements and Market Forces, in Acocella N., Leoni R. (editori), Social Pacts, Employment and Growth. A Reappraisal of Tarantelli’s Thought, Physica-Verlag, in corso di pubblicazione. Livi Bacci M. (2005), Il Paese dei giovani vecchi, il Mulino, v. 54, pp.409-419. Mazzaferro C., Toso S. (2006), The effects of Social Security on the Distribution of Wealth in Italy, paper presentato alla conferenza IARIW del 2006, http://www.iariw.org/c2006.asp#S-8B Rosina A. (2006), L’Italia che invecchia e la sindrome di Dorian Gray, il Mulino, v. 55, pp. 293-300.

39

Making the Italian Labour Market More Flexible: An Evaluation of the Treu Reform

Dario Sciulli

University of Rome “Tor Vergata Gli economisti concordano nell’attribuire all’elevata EPL (employment protection legislation), e quindi all’elevata rigidità del mercato del lavoro, la principale causa dei persistenti ed elevati tassi di disoccupazione rilevato nei paesi UE negli anni ‘80. La risposta dei governi europei è stata l’introduzione di nuove forme contrattuali (contratti atipici), che si caratterizzano per essere relazioni lavorative non permanenti e, soprattutto, caratterizzate da ridotti costi di assunzione e licenziamento. I nuovi contratti permettono di aumentare la flessibilità del mercato del lavoro, poiché le imprese hanno la facoltà di adeguare la propria forza lavoro variando il numero di lavoratori atipici. Gli effetti delle politiche di flessibilità non sono stati univoci. Da un lato hanno reso i mercati del lavoro più dinamici, poiché sono incrementati i flussi tra disoccupazione e occupazione. Dall’altro lato il maggior turnover non sembra aver dato luogo ad effetti sempre positivi sui tassi di disoccupazione. Infine, effetti contrastanti sono stati rilevati su altre dimensioni del mercato del lavoro (cfr. Dolado, Garcia-Serrano and Jimeno, 2002). In Italia l’introduzione dei contratti atipici è stata il frutto di numerose leggi che per lungo tempo hanno lasciato ai margini il loro utilizzo, almeno fino all’introduzione della Legge Treu (L. 196/97). Il mio paper prova a valutare alcuni effetti della riforma Treu sul mercato del lavoro italiano. In particolare, studio se: ha cambiato la duration dependence relativa agli stati di non lavoro; le precedenti esperienze di lavoro atipico influenzano la probabilità di trovare un lavoro stabile; se la probabilità di trovare un contratto permanente (PC) è maggiore partendo da uno stato di non lavoro (NW) o da un contratto atipico (AC). Per mia conoscenza questo è il primo tentativo sia di valutare questo genere di riforma nel mercato del lavoro italiano, sia di stimare i cambi della duration dependence usando dati panel. Teoricamente si attende un incremento della duration dependence negativa, quindi un aumento della dualità tra disoccupati di breve periodo (STU) e disoccupati di lungo periodo (LTU). Infatti, in un mercato del lavoro rigido (come quello esistente nel periodo pre-riforma), con poche opportunità di lavoro, l’essere LTU può non costituire un segnale di bassa produttività. Al contrario, in un mercato del lavoro più flessibile (come nel post-riforma), caratterizzato da più elevate probabilità di trovare un lavoro, l’essere LTU può costituire un segnale di bassa produttività, che le imprese possono utilizzare come strumento di selezione nelle scelte di assunzione. Maia Güell (2003) trovò evidenze di ciò stimando un modello per dati cross-section. Altri paper hanno studiato gli effetti di esperienze di lavoro atipico sulla probabilità di ottenere un impiego stabile, trovando evidenze contrastanti. Alba-Ramirez (1998), Amuedo-Dorantes (2000), Güell and Petrongolo (2006), and D’Addio and Rosholm (2005) trovano che gli individui con precedenti esperienze di lavoro atipico hanno una minore probabilità di trovare un impiego stabile, o che il tasso di conversione da un contratto atipico ad uno permanente è

40

basso e concentrato allo scadere del contratto atipico. Al contrario Zijl e al.(2004), van den Berg e al. (2002), Booth e al. (2002) and Ichino e al. (2005), trovano che l’essere impiegato con contratto atipico costituisce un trampolino di lancio verso un impiego stabile. Gagliarducci (2005) mostra come la probabilità di ottenere un contratto permanente incrementa con la durata del contratto atipico, ma decresce con il numero di esperienze di lavoro atipico, soprattutto se intervallate da periodi di non lavoro. I dati utilizzati nel paper sono estratti dal dataset WHIP (Work Histories Italian Panel), fornito dal “Laboratorio R. Revelli”, che ha provveduto ad estrarre le informazioni necessarie dall’archivio amministrativo dell’INPS. WHIP consiste in un campione costituito da una popolazione dinamica di 370000 individui, per i quali s’identificano tutte le relazioni lavorative degli individui e il relativo tipo di contratto per il periodo compreso tra il 1985 e il 1999. Le informazioni sono su base mensile, cosi che è possibile determinare la durata mensile degli spell. Il sotto-campione utilizzato nella mia analisi include informazioni su individui con età compresa tra 15 e 32 anni. La procedura di selezione dà luogo ad un sotto-campione di 137876 spell per 32483 individui. Il sotto-campione include individui di cui è disponibile l’intera storia lavorativa, e quindi lo stato iniziale, consentendo di evitare problemi legati alla conoscenza delle condizioni iniziali. Il modello econometrico di stima consiste in un Mixed Proportional Hazard (MPH) model con competing risks. Applicando il modello ai dati stimo le 8 probabilità di transizione: PC-PC, PC-AC, PC-NW, AC-PC, AC-AC, AC-NW, NW-PC, NW-AC. Assumo che l’hazard rate (λ) dallo stato k dopo un soggiorno, di durata t, allo stato j per l’individuo i è definito come

( ) ( ) ( ) ijkjkijkciijkijkijk

ciijk vxtvxt βλβλ '

0 exp;,| = dove, la baseline hazard (λ0) si assume seguire una distribuzione Weibull, l’eterogeneità non osservata (v) è assunta essere distribuita secondo una Gamma e i suoi termini essere indipendenti tra le transizioni. Infine x è un vettore di covariate non variabili nel tempo, e β è un vettore di parametri sconosciuti. La funzione di verosimiglianza individuale relativa alle transizioni da j a k, è:

( )( ) ( ) ( )ijk

C

c jk

C

c

r

ijkijkcij

d

ijkijkcijk

ijkciijk

vdvxtSvxtf

xtLij ij jc

jjjc

jkj

j

∫ ∏∏ ∏∞+

∞− = ≠ =

Γ×

Ω×Ω=

1 1

;,|;,|

,|

dove cj indica il cth spell nello j. La funzione di verosimiglianza stimata si ottiene dalla somma su c, j e i della funzione di verosimiglianza individuale. I miei principali risultati sono i seguenti: 1. Il maggior utilizzo degli AC, dovuto all’introduzione della riforma, fornisce un potenziale strumento di controllo per le scelte di assunzione delle imprese. Infatti, in un mercato del lavoro più flessibile, con maggiori opportunità di lavoro, essere LTU può

41

essere indicativo di bassa produttività. Empiricamente questa conclusione coincide con un incremento della duration dependence negativa per gli spell NW; 2. Avere avuti precedenti esperienze di AC influenza negativamente la probabilità di trovare un PC, se lo stato di origine è di non lavoro. L’evidenza si spiega col fatto che trovarsi in uno stato NW dopo essere stati occupati, può costituire un segnale negativo sull’abilità del lavoratore; 3. Non c’è evidenza che la probabilità di raggiungere un PC è maggiore partendo da un AC piuttosto che da un NW. D’altra parte, si trova una duration dependence positiva relativa alla transizione AC-PC, il che suggerisce l’esistenza di un effetto positivo dell’accumulazione di capitale umano sulla probabilità di ottenere un contratto permanente. La riforma ha ridotto l’ampiezza di questo effetto; 4. I lavoratori di sesso maschile, residenti nelle regioni settentrionali e in possesso di maggiore qualifica sperimentano una maggiore probabilità di trovare un impiego stabile. L’introduzione della riforma Treu sembra aver incrementato la dualità; quindi nel post-riforma i lavoratori svantaggiati hanno visto diminuita la probabilità di ottenere un PC; In termini di politiche economiche, i risultati suggeriscono la promozione di contratti di maggiore durata e di politiche che facilitino i programmi di training durante i periodi di inattività, allo scopo di incrementare il capitale umano. Inoltre le politiche dovrebbero fornire supporto ai lavoratori in cerca di lavoro, contribuendo così alla riduzione della durata degli stati di non lavoro. Infine, l’implementazione di queste politiche dovrebbe riguardare soprattutto i lavoratori svantaggiati, la cui situazione sembra essere peggiorata dopo l’introduzione della riforma.

42

Entry Regulations and Labour Market Outcomes: Evidence from the Italian Retail Trade Sector

Eliana Viviano

Secondo la letteratura economica non solo le rigidità del mercato del lavoro, ma anche quelle del mercato dei beni possono avere effetti negativi sulla crescita dell’occupazione. Per contro, la presenza di barriere all’entrata viene spesso giustificata dai policy makers come uno strumento per tutelare i livelli occupazionali nel settore protetto. Questo lavoro analizza gli effetti della regolamentazione delle aperture delle grandi strutture di vendita sull’occupazione del settore commerciale italiano nel periodo 2000-2003. In seguito al cosiddetto decreto Bersani del 1998 (D. lgs. 114/98), il comparto è stato per molti anni regolato da normative regionali caratterizzate da diversi gradi di restrizione alle condizioni di entrata. Tale eterogeneità consente però di identificare gli effetti delle diverse normative sulla crescita dell’occupazione nelle varie aree. L’analisi econometrica è svolta mediante l’applicazione di stimatori di tipo diff-in-diff: in particolare si compara l’evoluzione dell’occupazione in aree simili quanto a struttura geografica, economica e socio-demografica, ma caratterizzate da normative sostanzialmente differenti. Le aree sottoposte ad esame riguardano alcune province delle Marche e dell’Abruzzo: le prime caratterizzate -almeno originariamente- da una legislazione favorevole alla grande distribuzione, le seconde da una normativa più restrittiva. Il focus dell’analisi, limitato ad alcune province, è funzionale al rafforzamento della strategia di identificazione: data l’omogeneità delle aree prescelte è ragionevole assumere che le differenze riscontrate nell’evoluzione dell’occupazione siano causate da differenze di tipo regolamentare. Date queste premesse si studiano quindi in particolare: i) l’impatto delle politiche di liberalizzazione sull’evoluzione dell’occupazione complessiva del settore commerciale; ii) l’effetto della liberalizzazione sull’occupazione delle piccole strutture di vendita, potenzialmente le più danneggiate dall’espansione della grande distribuzione. I risultati dell’analisi econometrica suggeriscono che l’effetto complessivo della liberalizzazione delle entrate nel segmento della grande distribuzione è positivo, con un innalzamento della quota di occupati nel settore sul totale della popolazione in età lavorativa stimato pari a circa un punto percentuale. Tale effetto è determinato da una significativa crescita degli occupati nelle grandi strutture di vendita. A differenza degli altri studi su argomenti simili si trova invece che l’occupazione nelle strutture di piccola dimensione è sostanzialmente stazionaria. Nelle aree interessate dalla liberalizzazione si verifica una variazione della struttura proprietaria della rete di piccola distribuzione: diminuisce il numero di proprietari e aumenta il lavoro dipendente. Questa evidenza è compatibile con l’ipotesi che l’accresciuto grado di concorrenza induca le piccole imprese a intraprendere processi di riorganizzazione in reti o in franchising.

43

I risultati sono sottoposti a diversi controlli di robustezza per supportare l’ipotesi di casualità tra differenze nella legislazione, aperture di nuove strutture di vendita e crescita dell’occupazione. In primo luogo di controlla per differenze nei trend anche nel periodo antecedente agli interventi di liberalizzazione, al fine di verificare che le differenze riscontrate nella crescita dell’occupazione non dipendano da differenze pre-esistenti nel ciclo economico. In secondo luogo si compara l’evoluzione dell’occupazione in aree con legislazione simile a quella adottata nelle Marche e nell’Abruzzo e si verificare che, a parità di regolamentazione, anche la crescita occupazionale è simile. In termini di politica economica, i risultati indicano che l’effetto complessivo sull’occupazione del settore delle politiche di liberalizzazione è positivo. Ne consegue che l’occupazione nelle regioni più con regolamentazione più restrittiva, tra cui molte meridionali, avrebbe potuto crescere a tassi più elevati se i governi regionali avessero adottato politiche più favorevoli all’entrata di nuovi operatori. Per contro, le politiche di liberalizzazione riducono il numero di lavoratori autonomi nel commercio.

44

SESSIONE LIBERA

MACROECONOMIA Coordinatore: Nicola PAVONI Relazioni:

• Equilibrium Existence and Policy Neutrality in Static LQ Games: Nicola Acocella e Giovanni Di Bartolomeo

• Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime: Barbara Annicchiarico, Nicola Giammarioli e Alessandro Piergallini

• Determinants of Fiscal Policies in the Euro Area: Roberto Golinelli e Sandro Momigliano

45

Equilibrium existence and policy neutrality in static LQ games

Nicola Acocella University of Rome “La Sapienza”

Giovanni Di Bartolomeo

University of Teramo Tinbergen (1952, 1956) first addressed the issue of the controllability of a fixed set of targets by policymakers endowed with given instruments in a parametric context. He stated some general conditions for policy effectiveness and the need for policymakers to have recourse to second best solutions – by maximizing the value of their preference function subject to the model representing the economy – in the case of a non-perfectly controllable system, an approach later developed by Theil (see Theil, 1964). More formal conditions for controllability both in a static and dynamic context were later asserted (see Preston and Pagan, 1982; Hughes Hallett and Rees, 1983). Tinbergen, Theil, and the other founding fathers of economic policy were not concerned with analyzing the effectiveness of specific policy instruments. However, in the framework of the classical theory of economic policymaking it is not difficult to find the counterpart of the concepts of policy ineffectiveness and neutrality raised in the economic literature with reference to specific instruments, monetary policy, fiscal policy or others. The classical theory of economic policy has been the object of fierce criticism from a number of points of view. The introduction of rational expectations led to an assertion of the ineffectiveness of monetary policy on income more forceful than that stated by Friedman (1968) (see Sargent and Wallace, 1975). In a similar way, Barro (1974) developed the argument of fiscal policy neutrality based on the assumption of ultra-rational agents. A proposition of policy neutrality or “invariance” was then stated. Apart from the critiques advanced with reference to the effectiveness of specific instruments, Lucas (1976) raised the more general and forceful argument according to which a Tinbergen-type decision model is inconsistent with the assumption of rational expectations. In more recent years a new approach to the analysis of economic policy has been developed, that of policy games. Within this approach the questions of effectiveness and neutrality of specific policy instruments have been raised again, mainly with reference to monetary policy. More or less formal conditions leading to monetary policy ineffectiveness – or neutrality – have thus been investigated. Barro and Gordon (1983) deliver the well-known prediction of monetary neutrality as a result of the private sector expectations of the monetary policy. The private sector forms rational expectations of the money supply and acts to fully crowd-out monetary effects on real output by adjusting nominal wages, thereby creating a socially inefficient inflation bias. The same conclusion is reached if the Barro-Gordon problem is expressed in terms of a Stackelberg game between the central bank and a monopoly union, where the latter is the follower and trades off real wage and employment when setting the nominal wage rate. Gylfason and Lindbeck (1994) suggest that monetary policy neutrality arises when the private sector (labour unions) shares the objective of price stability with the central bank.

46

Acocella and Ciccarone (1997) generalize the above result by showing that monetary policy neutrality is the result of unions sharing some objectives (not necessarily price stability) with the monetary authorities. But this rule seems to loose ground when non-competitive markets are introduced into the picture: Soskice and Iversen (2000), Coricelli et al. (2000), Cukierman and Lippi (2001), and other studies show that non neutrality of monetary policy can derive from the interaction between imperfectly competitive goods and labour markets even when unions do not care for a common objective directly. Acocella and Di Bartolomeo (2004) show that in this case the rule is not violated, if reformulated in terms of unions’ sharing directly or indirectly some objective with the monetary authorities and state more general necessary and sufficient conditions for non-neutrality to hold. The conditions derived by Acocella and Di Bartolomeo (2004), except for some conclusive hints, are stated in terms apparently different from those of the classical analysis of policy effectiveness and controllability. One reason that could explain the difference refers to the contexts in which policy issues are examined in the two cases: a parametric one in the case of the analysis of Tinbergen and Theil; a strategic one in the case of policy games. The need then arises to: 1) find conditions for policy controllability in a strategic context equivalent to those valid in a parametric context and clearly stated in the classical theory of economic policy; these should be ex ante conditions, i.e., conditions that allow us to know whether the game leads to a result of neutrality of economic policy before solving it, possibly by applying some simple counting rule of the kind stated by Tinbergen; 2) check the correspondence between such conditions and those stated in the analysis of the policy effectiveness or neutrality of specific instruments. There have been previous attempts at performing the task under 1). This is, e.g., the case of Holly and Hughes Hallett (1989), who consider conditions for controllability in a dynamic model with a private sector forming rational expectations. As far as this task is concerned, our analysis has both a narrower and a wider coverage than theirs: in fact, on the one hand we do not consider differential games; on the other, we do not stick to the case of private agents forming rational expectations. We restrict ourselves to a static context and consider the case of perfect information only, since it is well known that asymmetric information is itself a source of non-neutrality. However our simple logic can be extended to more complex frameworks. We formally derive conditions for policy non-neutrality in a static strategic context and state them in terms similar to those used for asserting effectiveness in a parametric context. We show that a revised version of Tinbergen’s traditional theory can deal with policy neutrality and equilibrium existence problems in policy games. In a game theoretical perspective, controllability of an economic system and neutrality of policy tools are related concepts, e.g., in a two-player game, controllability for one player implies neutrality for the other (if an equilibrium exists). Thus, once the concept of controllability is appropriately reinterpreted, neutrality merely becomes an instrument/target accounting problem. However, neutrality of a player’s policy does not always imply that the other player controls its targets, unless all the target variables are second-order arguments of its

47

preferences. In addition, if some targets appear only linearly in its preferences, controllability implies non-existence. In any case, existence and neutrality can always be detected by using a simple counting rule that takes account of the order of targets in the players’ preferences. We also briefly discuss the different nature of neutrality when it is associated with controllability of the other player and when it is not. In the latter case, if the player with an equal number of instruments and second-order targets is able to influence the action of the other player, neutrality does not hold (e.g., in the cases of Stackelberg leadership and cooperation). Most limiting assumptions implicitly or explicitly used in this paper can be removed, at least in principle, along the lines of the evolution of the traditional economic policy approach. The simple logic of our discussion can thus be extended to more complex contexts such as dynamic and non-linear ones; however, formal generalizations may face computational and practical problems.

48

Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime

Barbara Annicchiarico Department of Economics, University of Rome ‘Tor Vergata’

Nicola Giammarioli

European Central Bank

Alessandro Piergallini Department of Economics, University of Rome ‘Tor Vergata’

The implications of alternative fiscal policies and the joint role of fiscal and monetary policies for macroeconomic stability and price developments are major topics in the ongoing policy debate as well as in the academic research. In the European Union the fiscal rules established by the Maastricht Treaty and the Stability and Growth Pact are consistent with the view that fiscal discipline and sound budgetary positions are necessary for macroeconomic and price stability, even in the presence of fully independent monetary authorities. This paper presents a dynamic stochastic general equilibrium model with price stickiness, capital accumulation, investment adjustment costs and intergenerational wealth effects. Ricardian equivalence does not hold in our framework, because the assumption of identical infinitely-lived private agents is relaxed. In our general set-up with finitely-lived individuals, financial wealth affects the dynamics of aggregate consumption. Hence, the dynamics of both public debt and asset prices, as well as the money market, do matter for the monetary and fiscal policy transmission mechanisms. The main aim of the present paper is to investigate the role of fiscal policy for business cycle fluctuations and the macroeconomic performance of alternative fiscal rules. In particular, fiscal policy is described by either a debt-based tax rule or a balanced-budget rule allowing for temporary deficits. Monetary policy is summarized by a standard Taylor rule. When calibrated to euro area quarterly data, the model predicts that equilibrium determinacy depends on the specification of fiscal policy. The ‘Taylor principle’ (the prescription that the long-run increase in the nominal interest rate for each permanent increase in inflation should be more than one-to-one) might not be sufficient for equilibrium determinacy under a ‘passive’ feedback tax-rule of the Leeper-style, ensuring fiscal solvency. On the other hand, under a balanced-budget fiscal rule, both ‘passive’ and ‘active’ monetary policies may be compatible with equilibrium uniqueness. We find that fiscal expansions are likely to generate a trade-off in output dynamics between short-term gains and medium-term losses. Specifically, positive fiscal shocks are expansionary in the short run but are shown to induce persistent negative effects on economic activity in the medium run. Furthermore, we show that the macroeconomic effects of fiscal shocks crucially depend on the conduct of monetary policy. This result provides support to the view that controlling for monetary policy is essential for an accurate empirical characterization of the effects of fiscal shocks. Finally, simulation

49

analysis suggests that balanced-budget requirements, beyond enhancing the determinacy properties of feedback interest rate rules à la Taylor, are suitable for guaranteeing inflation stabilization.

50

Determinanti delle politiche di bilancio nell’area dell’euro

Sandro Momigliano Banca d’Italia

Roberto Golinelli

Dipartimento di Scienze Economiche Università di Bologna

Il lavoro si aggiunge ad una vasta letteratura empirica che ha analizzato le determinanti delle politiche di bilancio dei paesi OCSE, con risultati non sempre univoci. Il principale contributo metodologico fornito a questa letteratura è rappresentato dall’utilizzo (ai fini della costruzione delle variabili esplicative) delle informazioni disponibili al momento in cui le decisioni di bilancio sono state prese (dati disponibili in tempo reale). Tali dati sono, in linea di principio, l’informazione appropriata per studiare i comportamenti delle autorità responsabili del bilancio pubblico. Nella maggior parte dei lavori empirici sono utilizzate invece le ultime informazioni disponibili (dati ex post). L’uso di dati ex post permette di valutare l’adeguatezza delle politiche alle effettive necessità, ma può non consentire di dare un giudizio corretto sulle scelte/comportamenti dei responsabili del bilancio. I dati ex post sarebbero appropriati se non si discostassero significativamente dalle stime iniziali, ma questo non è il caso, almeno nel campione considerato, per le valutazioni della situazione ciclica e dei saldi di bilancio. In un precedente lavoro (Forni e Momigliano, 2004) erano già state utilizzate informazioni disponibili in tempo reale, ma solo per la valutazione della situazione ciclica e per un arco temporale meno ampio. Il lavoro si distingue inoltre dalla maggior parte dei lavori precendenti per le seguenti caratteristiche:

a) si concentra sui paesi dell’area dell’euro. Si evidenzia, al riguardo, una notevole disomogeneità dei risultati con riferimento agli altri 8 paesi dell’OCSE per i quali le necessarie informazioni sono disponibili.

b) Si analizza contemporaneamente il ruolo di diversi fattori: le condizioni iniziali delle finanze pubbliche, le regole europee di bilancio, le condizioni cicliche, le elezioni.

c) Il modello utilizzato è derivato esplicitamente da una specificazione molto generale, sulla base di test che confermano le restrizioni imposte.

I dati disponibili in tempo reale sulla situazione ciclica.- L’indicatore utilizzato è l’output gap, calcolato applicando il filtro presentato in Mohr (2005), che costituisce una estensione del filtro di Hodrick e Prescott, alla serie dei tassi di crescita del PIL pubblicata nell’Economic Outlook (EO) dell’OCSE nell’autunno dell’anno precedente le politiche di bilancio. L’EO pubblica i dati di consuntivo e una previsione per l’anno in corso e i due anni successivi. L’utilizzo del filtro di Mohr (2005) consente di superare il problema della

51

distorsione nella stima della componente ciclica alla fine del campione che caratterizza il filtro HP. I dati disponibili in tempo reale sul saldo di bilancio.- Vengono utilizzati i dati dell’EO dell’autunno dell’anno precedente le politiche di bilancio.

La funzione di reazione stimata.- Il modello di base utilizzato si basa su due equazioni, una “normale” (1a) e l’altra (1b) che si applica alle politiche dei paesi in una situazione di disavanzo eccessivo. it

pite

ppite

pitxitditpbit ueexdpbcapb +++++=∆ +−−− 121111 φφφφφ [1a]

In una situazione normale, le azioni discrezionali di bilancio dell’anno t, approssimate dalla variazione del saldo primario corretto per il ciclo (∆ capb), vengono influenzate:

a) dalla situazione iniziale (anno t-1) del saldo primario (pd) e del debito pubblico (d); b) dalla situazione ciclica (x) dell’anno t-1 (i risultati non cambiano se si utilizza la

situazione ciclica dell’anno t); c) dalla presenza, nell’anno t o t+1, di elezioni politiche, purché la situazione ciclica sia

reputata favorevole, ossia l’output gap sia positivo (ep). Se un paese registra un disavanzo superiore al 3 per cento, le politiche discrezionali sono invece influenzate solo dalla variabile Maastricht (m), che misura approssimativamente la correzione necessaria nell’anno successivo per soddisfare le regole europee. Tale correzione è funzione del maggiore disavanzo iniziale rispetto al 3 per cento, del contributo atteso dagli oneri per interessi e del numero di anni entro i quali occorre rientrare. ititmit mcapb εφ +=∆ −1 [1b] Su un piano generale, i principali risultati dell’analisi empirica sono i seguenti:

1) gli effetti fissi relativi ai singoli paesi non sono significativi; sono invece globalmente significativi gli effetti temporali;

2) il modello, relativamente parsimonioso in termini di variabili esplicative (25, di cui19 temporali), spiega quasi un terzo della variabilità temporale e tra paesi delle politiche discrezionali, un risultato che appare di rilievo;

3) non vi è evidenza di break strutturali, distinguendo tra i sottoperiodi: 1988-1992; 1993-97 e 1998-2006.

Con riferimento alle stime dei singoli parametri, i principali risultati sono i seguenti. Condizioni iniziali delle finanze pubbliche.- Le politiche di bilancio hanno reagito ai livelli del saldo primario e del debito in maniera stabilizzante: viene corretto un quinto (0.184) dello squilibrio del saldo primario, mentre la correzione associata al debito è pari all’1 per cento di questo.

52

Regole europee.- Le stime indicherebbero che le regole europee di bilancio hanno avuto un impatto limitato sui comportamenti dei governi, essenzialmente circoscritto alle politiche adottate in presenza di un disavanzo eccessivo. Le stime puntuali delle reazioni alle condizioni iniziali delle finanze pubbliche sono più elevate (la correzione degli squilibri è maggiore) per il periodo 1993-97, ma questa differenza non è statisticamente significativa ed è temporanea: le stime dei relativi coefficienti per il periodo successivo (1998-2006) sono in linea con quelle degli anni che precedono il Trattato di Maastricht (1988-92). Le regole europee avrebbero quindi riaffermato preferenze che si possono individuare già negli anni immediatamente precedenti il Trattato; ovviamente, è possibile che tali preferenze non sarebbero rimaste invariate in assenza del Trattato. Una variabile costruita sulla base delle regole europee consente di cogliere con più precisione per gli anni 1993-2006 il comportamento dei paesi con un disavanzo superiore al 3 per cento. Tuttavia, l’esclusione della variabile non incide in misura significativa sulla capacità esplicativa del modello e lascia le stime dei parametri sostanzialmente invariate. Situazione ciclica.- La reazione delle autorità di bilancio alla congiuntura è stata in media anti-ciclica e di dimensioni apprezzabili: un output gap negativo pari all’1 per cento induce una espansione di bilancio pari allo 0,4 per cento del PIL. Questo risultato differisce da quello ottenuto dalla maggior parte degli studi precedenti, che trovano reazioni pro-cicliche o a-cicliche. Tali studi, tuttavia, sono basati su dati ex post e si riferiscono a periodi che includono anni precedenti quelli qui esaminati. Il tipo di informazione usato sembrerebbe importante nello spiegare le differenze nei risultati. Se replichiamo la nostra analisi utilizzando dati ex post, la reazione al ciclo diviene piccola e statisticamente non significativa. Non sembra quindi che il Patto di stabilità e crescita abbia distorto i comportamenti a favore di politiche pro-cicliche, una critica frequentemente portata al Patto. Se distinguiamo tra condizioni cicliche favorevoli e sfavorevoli, non troviamo evidenza di asimmetria nelle reazioni delle politiche di bilancio, a differenza di alcuni studi recenti. Ciclo elettorale.- Troviamo evidenza della presenza di un ciclo elettorale, ma l’espansione di bilancio associata alle elezioni (pari all’1,4 per cento del PIL nell’anno in cui esse si tengono e allo 0,6 nell’anno precedente) si manifesta solo se le condizioni cicliche sono percepite come favorevoli al momento delle decisioni di bilancio.

53

SESSIONE LIBERA

CRESCITA Relazioni:

• Testing for Country Heterogeneity in Growth Models Using a Finite Mixture Approach: Marco Alfò, Giovanni Trovato e Robert J. Waldmann

• A Longitudinal Analysis of Venture Capital Financing and the Growth of New Technology-based Firm the Role of Investors’ Typology: Fabio Bertoni, Massimo G. Colombo e Luca Grilli

• How Do Output Growth Rate Distributions Look Like? Some Time-Series Evidence on OECD Countries: Giorgio Fagiolo, Mauro Napoletano e Andrea Roventini

• Convergence Across Italian Regions and the Role of Technological Catch-up: Marco Maffezzoli

54

Testing for country heterogeneity in growth models using a finite mixture approach

Marco Alfò Dipartimento di Statistica, Probabilitµa e Statistiche Applicate

Università di Roma, La Sapienza

Giovanni Trovato Robert J. Waldmannz

Dipartimento di Economia e Istituzioni Università di Roma, Tor Vergata

Abstract We use an empirical model to test if the economic growth can be considered exogenous in the Solovian sense. We apply multivariate mixture model proposed by Alf¶o and Trovato (2004) to the Bernanke and GÄurkaynak (2001) extension of the Solow model. We ˉnd that the explanatory power of the Solow growth model is enhanced, since growth rates are not statistically signiˉcantly associated with investment rates, when cross-country heterogeneity is considered. Moreover we find no sign of convergence to a single equilibrium. Keywords: economic growth, unobserved heterogeneity, multivariate mixture models,poverty traps. JEL:C14, 030, 040

1 Introduction The present paper aims at testing the explicative capability of the MRW model when we tryto unify through a parsimonious statistical approach dfferent sources of heterogeneity. The proposed approach produces a classification of countries based on a set of common latent variables (Paap et al., 2005). The prediction of the Solow model is that in the long-run steady-state, the level of real output per-worker is a function of two variables: the saving rate and the labor force growth rate. Because saving and growth rates vary across countries, each country has a specific steady state. In this respect, the Solow model assumes that if the country steady state correctly describes the distribution of output per worker, then the long-run growth rate is independent of saving rates and capital accumulation. The empirics of economic growth have dealt with cross-country convergence issues. Indeed, the evidence of cross-country conditioned convergence is considered as supporting the Solow model while absence of convergence has been considered evidence in favor of endogenous growth theories. However, Azariadis and Drazen (1990), Durlauf and Johnson (1995), Bernard and Durlauf (1996) and Galor (1997) demonstrate that the Solow model is consistent with the existence of convergence clubs. If their theoretical analysis is empirically relevant, a failure to allow for unexplained heterogeneity in country steady states can lead to spurious rejection of the Solow model.

55

Our proposal concerns both heterogeneity testing and convergence issues. We start from the intuition of Bernanke and Gürkaynak (2001) that levels and growth rates are correlated and thus have to be studied in a bivariate model. In this context, if convergence occurs, we must and a negative and significant residual correlation. Since this approach to testing the Solow model, is new,the vulnerability of the Bernanke and Gürkaynak to parameter heterogeneity has not yet been addressed. We find strong evidence that consideration of parameter heterogeneity casts doubt on the conclusions of Bernanke and Gürkaynak. In contrast we find no evidence of convergence. As we will show in the bivariate semi-parametric model, the random terms in the mean and growth rates are positively correlated.

56

A longitudinal analysis of venture capital financing and the growth of new technology-based firms: the role of investors’ typology

Fabio Bertoni, Massimo G. Colombo, Luca Grilli

Department of Management, Economics and Industrial Engineering, Politecnico di Milano

Since the seminal work by Jaffee and Russell (1976) and Stiglitz and Weiss (1981), the argument that there are frictions in capital markets that make it difficult for firms to obtain external financing and constrain their investment decisions has increasingly been gaining ground in the economic and financial literature (see Fazzari et al. 1988 and the studies mentioned by Hubbard 1998). New technology based firms (NTBFs) are those most likely to suffer from these capital market imperfections. In turn, the fact that poor access to external financing may limit the growth and even threaten the survival of NTBFs is worrisome because of the key role these firms play in assuring dynamic efficiency and employment growth in the economic system (Audretsch 1995, Acs 2004). The above arguments especially apply to bank loans (Carpenter and Petersen 2002). In fact, banks generally do not possess the competencies required to evaluate ex ante and monitor ex post the investment projects proposed by young high-tech firms that lack a track record. In principle, the above mentioned adverse selection and moral hazard problems can be alleviated through the recourse to collateralized loans (Berger and Udell 1998). Nonetheless most of high-tech investments is in intangible and/or firm-specific assets that provide little collateral value. Venture capital (VC)* financing is generally considered by both academics and practitioners as a more suitable financing mode for NTBFs than bank loans. In fact, it is contended in the financial literature that this financing mode offers a fundamental contribution to the success of high-tech entrepreneurial ventures (see for instance Sahlman 1990, Gompers and Lerner 2001, Kaplan and Strömberg 2001, Denis 2004). Nonetheless, whether access to VC financing spurs the growth of portfolio companies is a matter of empirical test. As will be documented in the paper, the results of previous studies on this issue are not unanimous. The reason may be that these studies suffer from several methodological weaknesses. First, some of them focus on firms that went through an IPO. The samples they analyze are not representative of the NTBF population, since privately held firms are not considered. Moreover, these studies capture the moderating effect of VC financing on the relationship between the IPO and firms’ growth rather than the direct effect of VC financing on growth. Second, the results obtained by studies that resort to cross-sectional estimates are likely to be biased due to lack of proper control for unobserved heterogeneity across firms and reverse causality. Quite surprisingly, studies * The term “VC” is referred here to equity (or equity-like) financing provided by external investors to high-tech entrepreneurial firms in the early stages of their life. It includes seed, start-up and expansion capital. The source of financing may be independent financial intermediaries, diversified financial firms, and non-financial firms (i.e. corporate venture capital).

57

based on longitudinal datasets are rare (see Davila et al. 2003, Alemany and Marti 2005).* Lastly, it has recently been argued in the VC literature that especially in Europe, there is great heterogeneity across VC investors (Tykvova 2003, Bottazzi et al. 2004). Therefore the effect of VC financing on the growth of portfolio firms may well be contingent on the characteristics of the investor (Tykvova and Walz 2004, Engel and Heger 2006).†

In this work we resort to a hand-collected 10 year long longitudinal dataset composed of 550 Italian NTBFs to analyze the effect of VC financing on firm growth in the years that follow the first round of financing. In addition, we distinguish VC-backed firms according to whether VC financing is provided by independent VC firms (i.e. IVC) or non-financial firms (i.e. corporate venture capital, CVC).‡ Italian NTBFs provide a very interesting testbed of the beneficial effects of VC financing on portfolio companies as in Italy the VC industry is quite undeveloped and VC investors operate in a quite unfavorable environment. Sample firms were established in 1980 or later, survived as independent firms up to January 2004, and are observed from 1993 up to 2003. They operate in high-tech sectors of manufacturing and services. Most of them are privately held. In order to capture the effect of VC financing on the subsequent growth of firms, we estimate an augmented Gibrat law type dynamic panel data model with distributed lags. We consider growth of both employees and sales. We resort to GMM-system estimation to control for the potentially endogenous nature of VC financing. The results of the estimates strongly support the view that VC financing has a dramatic positive effect on firm growth. Moreover, even though both IVC and CVC financing positively affect firm growth, the benefits of the former mode of financing considerably exceed those of the latter.

* For an attempt to control for this bias in cross-sectional estimates of the relation between VC financing and firm growth, see Engel (2002), Colombo and Grilli (2005). † In accordance with this argument Hsu (2004) shows that financing offers by VC firms with high reputation are more than three times more likely to be accepted from recipient firms than other offers; in addition, these investors obtain a discount on the purchase price of the participation ranging between 10% and 14%. ‡ In Italy US-style independent VC firms that exclusively focus on early stage financing of high-tech start-ups are rare. So most firms included in the IVC category operate both in the early stage and late stage equity capital financing segments. Non financial firms invest in high-tech start-ups either directly or through affiliated subsidiaries. Both types of investment are included in the CVC category. Conversely, investments in high-tech start-ups on the part of other financial intermediaries such as banks and insurance companies are almost inexistent in Italy. They are included neither in the IVC nor in the CVC categories (while they are included in the VC category).

58

Sulle proprietà statistiche delle distribuzioni dei tassi di crescita dell’output aggregato nei paesi OCSE

Giorgio Fagiolo

Department of Economics, University of Verona, Sant’Anna School of Advanced Studies, Pisa

Mauro Napoletano

Chair of Systems Design, Zurich Sant’Anna School of Advanced Studies, Pisa

Andrea Roventini

University of Modena and Reggio Emilia, Italy Sant’Anna School of Advanced Studies, Pisa

Negli ultimi decenni buona parte della ricerca macroeconomica è stata diretta all’analisi delle proprietà statistiche riguardanti la serie temporale dell’output aggregato. Un risultato rilevante di tale ricerca è stata l’individuazione del forte grado di persistenza caratterizzante le fluttuazioni dell’output nei principali paesi industrializzati (si veda ad es. Nelson and Plosser, 1982; Cochrane, 1988, 1994; Blanchard and Quah, 1989; Rudebusch, 1993; Murray and Nelson, 2000). Più recentemente l’indagine ha riguardato le proprietà della distribuzione dei tassi di crescita tra paesi. In particolare i lavori appartenenti a quest’ultimo filone di ricerca (cfr. Canning et al., 1998; Lee et al., 1998; Castaldi and Dosi, 2004), hanno evidenziato il carattere leptocurtico di tale distribuzione o, in altre parole, la presenza di code grasse. Un’evidenza simile è stata riscontrata anche a livelli di aggregazione inferiori, e ciò nel caso della distribuzione cross-section dei tassi di crescita tra imprese e tra settori (cfr. Stanley et al., 1996; Lee et al., 1998; Amaral et al., 1997; Bottazzi and Secchi, 2003a,b; Castaldi and Dosi, 2004; Sapio and Thoma, 2006). L’insieme di tali risultati sembra indicare che, indipendentemente dal livello di aggregazione adottato, la dinamica cross-section dell’output sia caratterizzata da tassi di crescita di magnitudo elevata, statisticamente più rilevanti rispetto a quanto previsto dalla distribuzione Normale. Tuttavia la ricerca sulle proprietà delle distribuzioni dei tassi di crescita dell’output aggregato ha finora considerato esclusivamente distribuzioni cross-section, cioè tra un dato set di paesi in un dato anno, oppure la distribuzione tra paesi aggregata per un dato intervallo di tempo, sotto l’assunzione di stazionarietà dei momenti. Diversamente da tale letteratura, questo lavoro si concentra sulle proprietà statistiche della distribuzione time-series dell’output aggregato, quindi in un dato intervallo temporale e all’interno di singoli paesi. Più precisamente, il presente lavoro considera le serie temporali dei tassi di crescita del PIL e della produzione industriale in un paese benchmark come gli Stati Uniti, e testa se le loro distribuzioni possono essere approssimate da densità diverse dalla normale e caratterizzate da curtosi in eccesso. Successivamente l’analisi viene estesa alle serie

59

temporali dei tassi di crescita in un campione di paesi OCSE. Così facendo, il lavoro si propone di gettare un ponte fra la recente ricerca riguardante le distribuzioni dei tassi di crescita dell’output con la letteratura sulla proprietà statistiche delle serie temporali dell’output nei singoli paesi. Il presente lavoro si differenzia dai precedenti in letteratura anche sotto altri importanti aspetti. Primo, vengono impiegate serie temporali a frequenza trimestrale e mensile. Tale scelta consente di avere a disposizione maggiori osservazioni, ma anche di analizzare frequenze più adatte per lo studio dei cicli economici. Inoltre la distribuzione dei tassi di crescita dell’output viene stimata impiegando la distribuzione di Subbotin (cfr. Subbotin, 1923), che comprende come casi speciali sia la distribuzione normale, sia la distribuzione Laplace. In questo modo è possibile ottenere una misura precisa della distanza della distribuzione empirica dal benchmark, rappresentato dalla distribuzione Normale. Infine, il lavoro analizza la robustezza dei risultati sulle serie originali dei tassi di crescita dell’output rispetto alla presenza di outliers, autocorrelazione ed eteroschedasticità in tali serie. Il lavoro mostra che negli Stati Uniti sia i tassi di crescita del PIL, sia i tassi di crescita della produzione industriale, seguono la distribuzione di Laplace, caratterizzata da code grasse. Tale regolarità viene osservata anche negli altri paesi OCSE analizzati. Inoltre l’evidenza risulta essere robusta rispetto alla rimozione di outliers, autocorrelazione ed eteroschedasticità. Dunque, anche la dinamica time-series della crescita in numerosi paesi OCSE appare turbolenta: tassi di crescita di magnitudo elevata - sia positivi che negativi – sono molto più frequenti rispetto a quanto sarebbe previsto da un modello Gaussiano. Inoltre, la presenza di code grasse risulta essere una proprietà stessa del processo generatore delle innovazioni nella dinamica dell’output, anziché un effetto spurio dell’eventuale presenza di outliers, autocorrelazione ed eteroschedasticità nei dati. Keywords: Distribuzione dei Tassi di Crescita dell’Output, Normalità, Serie Temporali, Code Grasse, Distribuzione di Laplace, Dinamica dell’Output. JEL Classification: C1, E3. References Amaral, L. A. N., Buldyrev, S. V., Havlin, S., Salinger, M. A., Stanley, H. E. and Stanley, M. H. (1997) Scaling behavior in economics: The problem of quantifying company growth, Physica A, 244, 1–24. Blanchard, O. and Quah, D. (1989) The dynamic effects of aggregate demand and supply disturbances, American Economic Review, 79, 655–673. Bottazzi, G. and Secchi, A. (2003a) Common properties and sectoral specificities in the dynamics of u.s. manufacturing firms, Review of Industrial Organization, 23, 217–32. Bottazzi, G. and Secchi, A. (2003b) Why are distribution of firm growth rates tent-shaped?, Economic Letters, 80, 415–20. Canning, D., Amaral, L. A. N., Lee, Y., Meyer, M. and Stanley, H. E. (1998) Scaling the volatility of GDP growth rates, Economic Letters, 60, 335–41.

60

Castaldi, C. and Dosi, G. (2004) Income levels and income growth. some new cross-country evidence and some interpretative puzzles, Working Paper 2004/18, Laboratory of Economics and Management (LEM), Sant’Anna School of Advanced Studies, Pisa, Italy. Cochrane, J. (1988) How big is the random walk in GNP?, Journal of Political Economy, 96, 893–920. Cochrane, J. (1994) Permanent and transitory components of GNP and stock prices, Quarterly Journal of Economics, 109, 241–265. Lee, Y., Amaral, L. A. N., Canning, D., Meyer, M. and Stanley, H. E. (1998) Universal features in the growth dynamics of complex organizations, Physical Review Letters, 81, 3275–8. Murray, C. J. and Nelson, C. R. (2000) The uncertain trend in U.S. GDP, Journal of Monetary Economics, 46, 79–95. Nelson, C. R. and Plosser, C. O. (1982) Trends and random walks in macroeconomic time series, Journal of Monetary Economics, 10, 139–62. Rudebusch, R. G. (1993) The uncertain unit root in real GNP, American Economic Review, 83, 264–272. Sapio, S. and Thoma, G. (2006) The growth of industrial sectors: Theoretical insights and empirical evidence from u.s. manufacturing, Working Paper 2006/09, Laboratory of Economics and Management (LEM), Sant’Anna School of Advanced Studies, Pisa, Italy. Stanley, M. H., Amaral, L. A. N., Buldyrev, S. V., Havlin, S., Leschhorn, H., Maass, P., Salinger, M. A. and Stanley, H. E. (1996) Scaling behavior in the growth of companies, Nature, 379, 804–6. Subbotin, M. (1923) On the law of frequency of errors, Matematicheskii Sbornik, 31, 296–301.

61

Convergence Across Italian Regions and the Role of Technological Catch-Up

Marco Maffezzoli Università Bocconi and IGIER

The Italian case is one of the best-known examples of persistent and quantitatively important regional divide, and has attracted attention from economists at least since Myrdal (1957). Historically, the degree of regional inequality in GDP per worker (or per capita) has been significantly higher than in other European countries. Moreover, the Italian microcosm reproduces many of the contrasts and differences existing among European countries, since the productive structure and the level of development of Italian regions varies widely, ranging from the rich and industrialised regions of the North to the relatively poor Southern areas. The current consensus view is that Italian regions converged in absolute terms quite impressively over the 1960-75 period; this convergence process, however, ended suddenly in 1975, and the 1980s and the beginning of the 1990s witnessed the emergence of a clear pattern of divergence and clustering, in terms of both GDP per capita and, to a certain extent, labor productivity. Some recent contributions highlight the ongoing divergence in GDP per capita levels, which contrasts with the convergence in labor productivity that became increasingly evident during the 1990s. The official Italian regional accounts have been recently reconstructed according to the ESA95 standard, providing us with a set of detailed time-homogenous series covering the entire 1980-2004 period. In this paper, I take advantage of this new dataset to reexamine the process of regional convergence in Italy, focusing on labor productivity, i.e. GDP per worker, which seems to be a better indicator of economic efficiency. More precisely, I attempt to answer the question whether the degree of convergence in GDP per worker across Italian regions can be attributed to convergence in relative TFP levels or to convergence in capital-labor ratios. The answer is that the main (and possibly unique) source of σ- and β-convergence is the change in technical and allocative efficiency, i.e. convergence in relative TFP levels. To obtain this result, I adapt the approach introduced in macroeconomics by Färe et al. (1994) and extended by Kumar and Russell (2002): I estimate the degree of technical and allocative inefficiency at the regional level by constructing an approximation of the (national) production frontier at different points in time using a deterministic and nonparametric method known as Data Envelope Analysis (DEA), and measuring efficiency as the output-based distance from the frontier. This method is entirely data-driven, and does not require strong assumptions on the functional form of the aggregate production function, on the nature of technological progress, or the structure of product and factor markets. Once estimates of the relative TFP levels are available, changes in GDP per worker at the regional level can be decomposed into changes in relative efficiency, changes due to the overall technological progress, and changes due to capital deepening. My main results are that: (i) differences in relative TFP are quantitatively important determinants of the Italian regional divide; (ii) technological progress and capital deepening are the main, and equally important, forces behind the rightward shift in the

62

distribution of GDP per worker, but leave the shape of the distribution totally unaffected; (iii) convergence in relative TFP contributes little to the rightward shift of the distribution, but is the main determinant of the change in the shape of the distribution. These conclusions remain essentially unaltered even if the analysis is performed on a yearly basis, allowing for variable returns to scale, or corrected for differences in human capital stocks.

63

SESSIONE LIBERA

INDUSTRIALE Coordinatore: Angelo ZAGO Relazioni:

• Partial Regulation in Vertically Differentiated Industries: Angela S. Bergantino, Etienne Billette De Villemeur e Annalisa Vinella

• Restructuring Public Transit Systems: Evidence on Cost Properties and Optimal Network Configuration from Medium and Large-Sized Companies: Carlo Cambini, Massimiliano Piacenza e Davide Vannoni

• Mixed Duopoly, Privatization and the Shadow Cost of Public Funds: Exogenous and Endogenous Timing: Carlo Capuano e Giuseppe De Feo

• L’equilibrio sul campo quando i club hanno obiettivi differenti: l’esperienza recente della serie A di calcio: Nicola Giocoli

64

Partial Regulation in Vertically Differentiated Industries

Angela S. Bergantino Department of Economics, University of Bari

Etienne Billette de Villemeur

University of Toulouse, IDEI and GREMAQ

Annalisa Vinella University of Toulouse, GREMAQ,

Department of Economics, University of Bari, European University Institute, RSCAS, Florence School of Regulation, Florence

In this paper we provide a theoretical foundation to the price-and-quality cap regulation of the recently liberalized utilities. We model a partially regulated oligopoly where vertically differentiated services, such as high-speed and low-speed train services, are provided by a regulated incumbent and a strategic unregulated entrant competing in price and quality. This stylisation is rather flexible in that it may equally well represent competition between regulated and unregulated industries, such as regulated train operators and deregulated air carriers. We establish that the price and quality weights in the cap need to depend also on the market served by the entrant, despite the latter is not directly concerned by the partial regulation. The conclusion is drawn that the regulators of the sectors under scrutiny should be allowed to use information about the overall industries, rather than the sole incumbents. Keywords: Price-and-Quality Cap; Partial Regulation; Vertical Differentiation J.E.L. Classification Numbers: L11, L13, L51, L9

Executive Summary In a seminal piece of work, Laffont and Tirole (1996) show that capping the prices of a multiproduct monopolist by means of a constraint in which any such price is attributed a weight equal (or proportional) to the correctly forecasted optimal quantities induces the regulated firm to charge the Ramsey prices, so that the second-best optimum is entailed. This result ʺrestatesʺ the one, due to Brennan (1989), that the price cap emerges as the solution to a problem of welfare-constrained profit maximization, output quantities being the weights to be attributed to the allowable deviations from the desirable prices.

65

The ones afore-mentioned are definitely not the sole studies about the ideal price cap. Indeed, numerous other authors have concentrated on the subject. Some have generically looked at industries providing services of general interest (e.g., De Fraja and Iozzi, 2000; Iozzi, Poritz and Valentini, 2002), others have focused on specific sectors (e.g., Billette de Villemeur, Cremer, Roy and Toledano, 2003). Special credit deserve De Fraja and Iozzi (2004) who lay down a theoretical foundation of the price-and-quality regulation by integrating the price cap with a quality dimension. The concern for quality is particularly strong when utilities are subject to price cap regulation, due to the incentive the latter provides to cost cutting, which may translate into reductions in the level of offered quality. Indeed, according to Rovizzi and Thompson (1992), a noticeable quality reduction was registered in British Telecom’s services as soon as the company was subject to price cap regulation without specific quality provisions. This evidence explains why regulators tend to exert special effort for controlling the quality supplied by the regulated operators and illustrates the relevance of De Fraja and Iozzi (2004)’s contribution. The existing theoretical foundation of the ideal price(-and-quality) cap refers to monopolistic industries. This circumstance is easily explained. After the Second World War, almost all governments chose to structure the provision of services of general interest as State controlled-and-owned vertically integrated monopolies. Over time, this organizational model has generated dissatisfaction and lost momentum. In the recent decades, utilities have either undergone a major process of privatisation (see, among others, Martimort, 2005) or become purely commercial players to be regulated, ownership being (formally) separated from regulatory tasks. Having in mind these real-world scenarios, economists have devoted close attention to monopoly regulation in general, and to price cap monopoly regulation in particular, with and without quality adjustments. However, in a plurality of cases, the segments of the network industries that do not rely upon sub-additive technologies have also been opened up to competition. As a consequence of liberalization, partially regulated oligopolies arise, where the incumbents are subject to regulation, whereas the entrants are allowed to operate uncontrolled, though strategic (see, for instance, Helm and Jenkinson, 1998). Such policies are meant, on one side, to promote access and (some) competition and, on the other side, to guarantee the collectivity with a reliable supply of the concerned services at affordable prices, by making the incumbents less market powerful but still financially viable. Biglaiser and Ma (1995) give the example of AT&T, which operates as a regulated incumbent in the long-distance telecommunications market, in competition with the unregulated MCI and Spring. A crucial question arises. Can we expect the well-established monopoly regulation to be valid also for imperfectly competitive partially regulated sectors? There is no economic reason for this to be a priori the case. This is confirmed by the conclusions achieved by Biglaiser and Ma (1995) who show that the regulatory programme is sensitive to the presence of a second operator endowed with market power. New constraints and trade-offs appear, beyond those faced in the monopoly regulation, and the result is ultimately a third-best one. This finding conveys a lesson that applies to price cap regulation as well. Provided that the latter lacks a normative basis with reference to the new relevant

66

situations, the necessity arises to revise the underlying theory, so that the implementation practice can then be updated accordingly. The ultimate goal of the present paper is to provide a theoretical foundation for the price-and-quality cap regulation in oligopolistic environments, where a regulated incumbent (a Stackelberg leader) competes in price and quality with one (or more) unregulated follower(s). To account for the importance quality takes in the provision of basically all services of general interest, we focus on a market where vertically differentiated services are supplied to a population of consumers exhibiting heterogeneous valuations for quality. The interpretation of our model is twofold. Firstly, it represents competition between asymmetrically regulated operators within some given industry. To fix ideas, one may think about a regulated dominant train operator competing with one or more unregulated rivals, whose services display different qualities (e.g., high-speed and low-speed train services). Secondly, our model stylises competition between regulated and unregulated industries. Insisting on transportation, one may consider the inter-modal competition between regulated train operators and deregulated air carriers, whose services differ as for speed, frequency, scheduling reliability, comfort. Albeit transportation illustrates the flexibility of our model particularly well, the model does apply to substantially all utilities. Within the context so far described, we first characterize the (constrained) optimal partial regulatory policy. This is the policy arising in a mixed duopoly where a welfare-maximizing firm plays as a Stackelberg leader with respect to one (or more) profit-maximizing rival(s), facing the requirement that its profits be non-negative. In this perspective, our work is close to the mixed oligopoly models in which the public firm is taken to be a first mover vis-à-vis the private operator(s) (e.g., Rees, 1984, and Bos, 1989). At later stage, we illustrate how the established optimal policy should be decentralized to the incumbent by means of an ideal price-and-quality cap. Our major finding is that, despite partial regulation does not directly concern the follower(s), decentralization of the optimal policy to the dominant operator requires that weights be attributed to price and quality, which depend not only on the portion of market that is served by the incumbent, but also on the one that is covered by the unregulated competitors as well as on the pertaining ranges of quality valuations. It follows that the regulatory bodies of the incumbents in liberalized industries should be allowed to use the available knowledge or to extract information about the overall industry, rather than being restricted to solely access and rely upon the information about the targeted operators.

67

Restructuring Public Transit Systems: Evidence on Cost Properties and Optimal Network Configuration from Medium and Large-Sized Companies

Carlo Cambini DISPEA , Politecnico di Torino,

Massimiliano Piacenza Consiglio Nazionale delle Ricerche, Ceris-CNR,

Davide Vannoni Facoltà di Economia, Università di Torino

Il settore del trasporto pubblico locale (TPL) in Italia è stato per anni caratterizzato da una profonda crisi dovuta soprattutto ad un perdurante dissesto finanziario e ad una crisi della domanda di trasporto collettivo. Nel corso degli anni ‘70 e ‘80 il settore ha visto i propri costi crescere molto più dei ricavi, che in molti casi diminuivano a causa della perdita di clientela a favore dei mezzi di trasporto privati. Per rimediare a questa situazione si è fatto massiccio ricorso all’utilizzo di fondi pubblici nazionali e locali. In assenza però di appropriati meccanismi di incentivazione dell’efficienza e di sufficiente credibilità del vincolo di bilancio, regioni ed enti locali hanno lasciato crescere i disavanzi delle imprese di TPL, con l’obiettivo di poter poi ricevere un intervento “straordinario” dello Stato, come d’altronde è sempre avvenuto, contribuendo ulteriormente a ridurre la credibilità dei vincoli di bilancio. La riforma strutturale del TPL, avviata con la Legge 549/1995 e completata dai Decreti Legislativi 422/1997 e 400/99, rappresenta la risposta all’esigenza di una riorganizzazione radicale dell’intero comparto, senza la quale il perseguimento di cospicui recuperi di efficienza e di efficacia del servizio sarebbero risultati problematici. Tra gli elementi innovativi riconosciuti alla riforma, un punto centrale è costituito dall’introduzione di forme di concorrenza amministrata (o “per il mercato”), attraverso il ricorso a procedure di gara per l’affidamento dei servizi. Alla luce di tale evoluzione del quadro regolatorio, questo lavoro analizza le caratteristiche tecnologiche delle imprese che forniscono il servizio di TPL nelle grandi realtà urbane, con l’obiettivo di delineare la dimensione ottimale di produzione e la configurazione del network più appropriata, con riferimento alla definizione del bacino di traffico da assegnare mediante gara. Lo studio di tali aspetti assume particolare rilievo sotto il profilo dell’efficienza dei gestori, dal momento che individua la possibilità da parte di questi ultimi di sfruttare le economie di scala e di densità del network eventualmente presenti nella tecnologia adottata. Nello studio si tiene altresì conto dell’eventuale diversificazione dell’offerta del servizio tra comparto urbano ed extraurbano, valutando così la presenza di possibili vantaggi di costo associate ai bacini di tipo misto (economie di gamma) che nella realtà italiana del TPL rappresentano un fenomeno diffuso. Dal punto di vista metodologico, l’analisi si basa sulla stima di diversi modelli di funzione di costo di tipo Translog: vengono considerate sia una specificazione di breve periodo (costo variabile) sia una di lungo periodo (costo totale), tre diverse alternative misure dell’output, l’inclusione nel modello di effetti fissi firm-specific e la possibile presenza di X-inefficienza,

68

attraverso la stima di una frontiera stocastica che ammette l’ipotesi di mancata minimizzazione dei costi da parte delle unità produttive osservate. L’evidenza ottenuta, che risulta robusta alla diverse specificazioni del modello, rivela la presenza di significative economie di scala e di densità sia per l’impresa media di riferimento sia per gli operatori di grande dimensione. Tali risultati confermano quanto emerso in studi precedenti sul TPL in Italia che avevano rilevato l’esistenza di tali economie per le imprese di piccola e media dimensione. La presenza di economie di densità suggerisce la possibilità per l’impresa di poter conseguire risparmi di costo attraverso un’intensificazione del servizio all’interno del proprio bacino di traffico: data una certa area territoriale servita, a seguito di un incremento dell’output offerto i costi aumentano in misura meno che proporzionale, consentendo pertanto una riduzione dei costi medi unitari. La presenza invece di economie di scala implica che espandendo simultaneamente sia l’output sia la dimensione del network servito, è possibile migliorare la performance di costo a seguito del raggiungimento di una scala globale più efficiente. Tali risultati evidenziano l’opportunità di promuovere una politica di fusioni fra i gestori di TPL operanti su network adiacenti, soprattutto fra imprese urbane ed extraurbane, in modo da creare nuove unità produttive che, fornendo un servizio misto, riescano anche a sfruttare le economie di diversificazione rilevate attraverso l’analisi econometrica. Le implicazioni di policy vanno valutate attentamente. Particolare cautela dovrebbe essere usata nel considerare i risultati della ricerca a confronto con altre esperienze internazionali che sembrano suggerire, in maniera indiretta, l’esistenza di scarse economie di scala. Il riferimento è al caso di alcuni paesi europei, segnatamente la Gran Bretagna e in maggior dettaglio Londra, dove gare che hanno avuto ad oggetto singole linee e/o sub-bacini e non interi network hanno permesso di conseguire rilevanti risparmi di costo. Eventuali comparazioni con altri paesi devono infatti tener conto della diversa struttura industriale, soprattutto in termini di grado di concentrazione e integrazione verticale, oltre che del quadro regolatorio vigente. Lo studio fornisce quindi un tassello importante, ma non dirimente, per definire la struttura delle procedure di affidamento mediante gara. I risultati dell’analisi sembrano suggerire gare aventi per oggetto network di ampia estensione, che nei centri di dimensioni medie coinvolgano sia l’attività urbana sia quella extraurbana, mentre nelle città metropolitane riguardino l’intero bacino di traffico. Tuttavia, l’esito ottimale di una gara dal punto di vista delle offerte dipende da una pluralità di condizioni relative al disegno della gara medesima e al grado di concorrenza effettiva e potenziale nel mercato rilevante; in termini molto generali, quanto più grande è il lotto da assegnare, tanto minore sarà probabilmente il numero dei partecipanti e maggiore il rischio di comportamenti collusivi e opportunistici, con il risultato che le offerte non rifletteranno correttamente i costi. In un contesto normativo che prevede l’affidamento del servizio tramite gara, un approccio più prudente rispetto alle considerazioni sopra richiamate, almeno per le grandi aree metropolitane, potrebbe quindi essere quello di suddividere ex ante il network in un certo numero di lotti, attribuirli in modo separato senza alcun vincolo di partecipazione, e lasciare poi al mercato la segnalazione dell’esistenza effettiva di rendimenti crescenti di scala. Tale opzione potrebbe risultare altresì un valido test empirico per i risultati raggiunti con l’analisi econometrica qui proposta.

69

Mixed Duopoly, Privatization and the Shadow Cost of Public Funds: Exogenous and Endogenous Timing

Carlo Capuano Dipartimento di Economia, Università di Napoli Federico II

Giuseppe De Feo CORE - Center for Operations Research and Econometrics, Dipartimento di Economia, Università di Napoli Federico II

The purpose of this article is to investigate how the introduction of the shadow cost of public funds in the utilitarian measure of the economy-wide welfare affects the behaviour of a welfare maximizer public firm in a mixed duopoly. We prove that when firms play simultaneously, the mixed-Nash equilibrium can dominate any Cournot equilibria implemented after a privatization, with or without efficiency gains. This can be true both in terms of welfare and of public firm’s profit. When we consider endogenous timing, we show that either mixed-Nash, private leadership or both Stackelberg equilibria can result as subgame-perfect Nash equilibria (SPNE). As a consequence, the sustainability of sequential equilibria enlarges the subspace of parameters such that the market performance with an inefficient public firm is better than the one implemented after a full-efficient privatization. Absent efficiency gains, privatization always lowers welfare. More broadly, our paper deals with a mixed duopoly where a private and a public firm are involved in a homogeneous good quantity competition. Since we refer to former public monopoly opened to competition, we consider firms characterized by increasing returns to scale (with fixed and constant marginal costs). In particular, the public firm is assumed to be less inefficient than its private competitor, but, differently from Cremer et al. (1989), the public firm’s higher cost is not a neutral transfer from firm to workers belonging to the same economy but, as an X- inefficiency, it reduces any utilitarian measure of welfare. We derive the mixed oligopoly equilibria and define conditions under which a privatization, with or without efficiency gains, leads to a reduction of allocative efficiency and profitability. The novel contribution of this paper is twofold. First, we characterize the objective of the public firm taking into account the shadow cost of public funds as initially analyzed in Meade (1944) and exploited in Laffont and Tirole (1986,1993). Usually this analysis has been used to characterize public monopolies running a deficit*. Here we apply the same * “[M]any public enterprises are natural monopolies, i.e. firms that exhibit increasing returns to scale. Once it has been proved desirable to run such an enterprise at all, its product should be priced at marginal cost provided the resulting deficit can be financed through lump-sum taxes. If there are not lump-sum, discrepancies between consumer and producer taxes will result in inefficiencies in the rest of the economy. (...) This has been taken as an argument for requiring the public enterprise to cover, by its own means, at least part of its deficit.” (Marchand et al., 1984).

70

reasoning to a public firm competing in an oligopoly. In our framework, with fixed cost and constant marginal cost, the idea is that public firm’s profit - whether positive or negative - have to be considered as a (positive or negative) transfer from the government to the public firm. In fact, when public firm deficit occurs, government must resort to distortionary taxes on income, capital or consumption. If government rises 1 Euro, society pays (1+ ) Euro. Consequently, public profits, when positive, avoid an equivalent public transfer, reducing distortionary taxes. Public firm’s profit and deficit are not a neutral transfer among agents of the same economy. They ought not to be weighted as private firm’s profits or consumer net surplus in the utilitarian measure of welfare, but they should be weighted 1+ . Even though there is no general agreement on the objective of the public firm (Vickers and Yarrow, 1991), we believe that our proposal, in a partial equilibrium setting meets the intuition of Marchand et al. (1984). Moreover, there is large empirical evidence of prices above marginal cost with soft budget constraint and also positive profits by public firm, where the latter occurs more frequently in the mixed oligopoly context than in natural public monopolies. Thus, we do not require the public firm to act under hard budget constraint and the profit will be positive or negative depending on the importance of the distortion due to taxation and the amount of fixed costs. Second, after having analyzed the simultaneous moving game, we consider the issue of endogenizing the timing of competition; that is, the order of play in a given two player game. It is worth noting that in Harris and Wiens (1980), Beato and Mas-Colell (1984), Cremer et al. (1989) and de Fraja and Delbono (1989), the choice of the timing of competition (either Nash-Cournot or Stackelberg) is exogenously given. On the contrary, the determination of simultaneous (Nash-Cournot) versus sequential (Stackelberg) games and the assignment of leader and follower roles should be the result of preplay independent and simultaneous decisions by the players. To endogenize the timing of the game, we apply the Hamilton and Slutsky (1990) model to our framework*: they explain the extended game as a game with observable delay since both players choose the action in the basic game after having observed the time decision of the other. Amir and Grilo (1999) apply this model to a private duopoly showing that, in a quantity setting with strategic substitutability, the simultaneous game emerges as the endogenous timing and the Cournot equilibrium as the unique subgame-perfect Nash equilibrium of the extended game. Pal (1998) addresses the issue of endogenous order of moves in a mixed oligopoly by adopting the same game structure. It shows that sequential playing emerges as the endogenous timing and both Stackelberg solutions as the subgame-perfect Nash equilibria of the extended game. Applying the Hamilton and Slutsky’s model to our setting allows us to characterize the different equilibria emerging in a mixed market, to analyze whether the privatization leads to a change of the endogenous timing, and to define the overall welfare effect of

* In their insightful paper, the authors construct an extended game adding to the basic game a preplay stage at which players simultaneously and independently decide whether to move early or late in the basic game. Then, the basic game is played according to these timing decisions: if both players decide to move at the same time, simultaneous play endogenously arises; while sequential play -- with the order of moves as decided by players -- otherwise. As a consequence, the subgame-perfect Nash equilibria of the extended game induce an endogenous sequencing of moves in the basic game.

71

privatization. The main results of our analysis can be summed up as follows. In the simultaneous setting: • There exists a parameters space such that welfare is larger when the (inefficient) public

firm is a welfare maximizer than after privatization. Moreover, when the shadow cost of public funds is not negligible, public firm’s profit are larger, too. That is, there is no trade-off between welfare and public firm’s profit.

• The market performance with an inefficient public firm may be better than the one implemented after a full-efficient privatization.

Extending the analysis to the endogenous timing: • Differently from Pal (1998), in our model setting either mixed-Nash, private leadership

or both Stackelberg outcomes can result as subgame-perfect Nash equilibria (SPNE) of the endogenous timing game.

• Absent efficiency gains, privatization always lowers welfare. • The endogenous timing setting enlarges the parameters space such that the market

performance with an inefficient public firm is better than the one implemented after a full-efficient privatization.

Last results rely on the fact the presence of a public firm let sequential equilibria be part of a SPNE of the game. Conversely, with private-owned firms, only simultaneous equilibria can be implemented. It is worth noting that our results are obtained under the assumption that government has the bargaining power to extract all the rent of the privatized firm; that is, the price paid for the former public firm is equal to the profit gained in the new (Cournot) equilibrium. This assumption drives the results in favour of privatization, since it overweighs the revenue from privatization by in any welfare comparisons.

72

L’Equilibrio sul campo quando i Club hanno obiettivi differenti: l’esperienza recente della serie A di calcio

Nicola Giocoli

Dipartimento di Scienze Economiche, Università di Pisa

Lo scopo del lavoro è duplice. Da un lato presentare criticamente ed in lingua italiana il modello standard di analisi economica dello sport di squadra (team sports economics, TSE) e suggerirne una variante più adatta alla realtà del campionato italiano di calcio. Dall’altro utilizzare in modo originale una misura empirica dell’equilibrio sul campo tra i diversi club, recentemente proposta in letteratura al fine di verificare le implicazioni della suddetta variante. La tesi è che il recente passaggio di alcuni club calcistici ad un comportamento orientato al profitto ha ridotto l’equilibrio per quanto concerne le prime posizioni della classifica di Serie A, ma ha al contempo accentuato la competizione per evitare la retrocessione in Serie B. Il modello di riferimento nella letteratura di TSE è costruito su ipotesi che ne rilevano l’origine nordamericana. Si assume infatti che gli n club che compongono una lega sportiva professionistica abbiano come obiettivo la massimizzazione del profitto, da ottenersi come differenza tra una funzione di ricavo, il cui argomento principale è rappresentato dal numero di vittorie conseguito dal club nel corso del campionato, ed una funzione di costo, il cui argomento principale (e spesso unico) è la spesa per acquistare il talento tecnico-atletico necessario a “produrre” le vittorie. Riguardo ai ricavi, l’ipotesi è che siano concavi rispetto alle vittorie: questo per tener conto della riduzione nell’interesse dei tifosi, e quindi nella loro disponibilità a pagare per assistere alle partite, in presenza di incontri e campionati dall’esito scontato, in cui cioè un club vince troppo spesso – c.d. uncertainty of outcome hypothesis (UOH). Inoltre si assume che la capacità di generare ricavi cresca con la dimensione del club e del suo mercato di riferimento. Riguardo al mercato del talento, le ipotesi più frequenti sono che l’offerta totale sia fissa e che sia in vigore un meccanismo di free agency (c.d. “svincolo”) che rende il mercato perfettamente concorrenziale, per cui la remunerazione di equilibrio della singola unità di talento tecnico-atletico, supposta uniforme tra tutti i giocatori, si colloca al livello del costo marginale. La relazione tra talento e numero di vittorie è univocamente determinata da una contest success function di tipo logit, tale per cui i successi di un club – misurati con la percentuale di incontri vinti sul totale di quelli disputati – dipendono dalla frazione del talento totale a sua disposizione. Il modello standard propone come indicatore di performance di una lega professionistica il concetto di competitive balance (CB), o “equilibrio sul campo”. Un incontro perfettamente equilibrato è quello in cui le squadre hanno uguali probabilità di prevalere; una lega perfettamente equilibrata è quella in cui tutti i club ottengono a fine stagione la medesima percentuale di vittorie. La letteratura offre diverse misure della CB, ma la più utilizzata è la deviazione standard del numero di vittorie rispetto al numero medio (pari ad n – 1 ) che si avrebbe in un campionato perfettamente equilibrato: maggiore è la deviazione standard e minore è la CB di quel torneo. Data la relazione deterministica tra talento e vittorie, la CB

73

dipende dalla distribuzione del talento tra i diversi club. Questo, data la UOH, implica che in caso di elevata concentrazione del talento in uno o pochi club, e quindi di un ridotto equilibrio sul campo, si generino minori ricavi per tutti i club. Pertanto, l’orientamento al profitto degli stessi fa sì che la decisione di acquistare talento debba tener conto del trade-off tra vittorie e ricavi; inoltre, sarà interesse della lega proporre misure correttive per aumentare la CB. Tuttavia, uno dei principali risultati della TSE è che, ad eccezione di un salary cap egalitario, nessuna delle altre e più diffuse misure correttive (quali p.e. le diverse forme di redistribuzione dei ricavi a favore dei club più piccoli) è in grado di modificare la CB di equilibrio – c.d. proposizione di invarianza. I limiti del modello nel catturare la realtà dello sport professionistico europeo sono evidenti. In Europa, infatti: i) molti club non hanno come obiettivo la massimizzazione del profitto, ma casomai del numero di vittorie; ii) almeno una parte dei tifosi non perde interesse nel campionato anche se l’esito dello stesso, o dei singoli incontri, appare scontato; iii) l’offerta di talento non è fissa (come nel caso di sport tipicamente nordamericani quali il football e, in passato, il basket ed il baseball), ma elastica rispetto al salario, con atleti che si spostano da una lega all’altra; iv) i campionati non prevedono la partecipazione di un elenco predefinito di club (c.d. “leghe chiuse”), ma sono invece “aperti” per effetto del meccanismo di promozioni e retrocessioni: ciò modifica radicalmente la struttura degli incentivi per i club partecipanti. Ciascuna di tali caratteristiche è analizzata nel paper come una possibile variante del modello standard nel semplice caso di n = 2. E’ significativo come ognuna delle modifiche confuti la proposizione di invarianza, ovvero le misure redistributive tra club grandi e piccoli risultano efficaci sulla CB di equilibrio. In particolare, si concentra l’attenzione sulla prima caratteristica, utilizzando come riferimento la Serie A italiana di calcio. Qui l’ipotesi che i club perseguano un obiettivo puramente economico contrasta con l’esperienza di gestioni orientate all’ottenimento del successo sportivo (quasi) ad ogni costo, testimoniata dal ripetersi di ingenti e diffuse perdite d’esercizio. Tuttavia, negli ultimi anni alcuni club di Serie A hanno modificato il loro orientamento in direzione di una più corretta gestione economica, a volte con l’esplicito obiettivo di ottenere un profitto. La semplice variante al modello standard proposta nel paper prefigura una lega dove i due club partecipanti perseguono obiettivi differenti: uno mira alla massimizzazione delle vittorie, l’altro, abbandonato tale obiettivo, punta alla massimizzazione del profitto. La particolarità dell’esercizio è che il club che mantiene l’orientamento al successo sportivo è quello grande (in termini di ricavi), mentre quello che devia da tale comportamento è quello piccolo. Per quest’ultimo, infatti, non è razionale inseguire un successo sul campo che comunque, dati i limiti dimensionali dei propri ricavi, non potrà mai ottenere, rinunciando al contempo alla possibilità di ottenere profitti. Mantenendo per semplicità tutte le altre ipotesi del modello standard, l’esito della variante è la riduzione della CB di equilibrio a danno del club deviante rispetto ad entrambi i casi “puri”, in cui cioè i due club perseguono il medesimo obiettivo, sia esso la vittoria o il profitto. Il medesimo risultato si ottiene anche in un modello con tre o più squadre: i club che abbandonano l’obiettivo del successo sportivo e puntano al profitto vedono ridursi la percentuale di vittorie a vantaggio degli altri club, con conseguente diminuzione della CB

74

complessiva. Se vale l’ipotesi che i club devianti siano piccoli – o più realisticamente, in presenza di rischio di retrocessione, medio-piccoli – l’implicazione verificabile del modello è, più specificamente, una riduzione della CB per le posizioni di vertice del campionato ed un aumento della CB per le posizioni di coda. Per verificare tale implicazione si utilizza una misura alternativa dell’equilibrio sul campo recentemente ideata per tener conto del meccanismo di promozioni e retrocessioni che caratterizza lo sport europeo. Tale meccanismo, infatti, rende non significativa una valutazione della CB basata sulla deviazione standard del numero di vittorie: un campionato dove le vittorie sono molte concentrate a favore di poche squadre non necessariamente è un campionato poco “combattuto”, dato che il rischio di retrocessione incentiva l’impegno fino alla fine del torneo – e quindi rende interessanti i relativi incontri – anche dei club che vincono poche partite. La misura alternativa utilizza metodi combinatori per determinare il numero teorico di squadre differenti che, in un dato campionato ed in un arco di tempo prefissato, dovrebbero essersi classificate almeno una volta nelle prime k o nelle ultime h posizioni della classifica: questo sotto l’ipotesi di perfetto equilibrio sul campo e tenendo conto sia del numero reale di partecipanti alle varie serie professionistiche che delle promozioni e retrocessioni tra le serie previste nelle diverse stagioni. Mettendo a rapporto tale numero teorico con il numero effettivo di squadre che si sono classificate in tali posizioni si ottiene la misura della CB per quel dato campionato. Osservando l’andamento nel tempo della misura per le prime e le ultime posizioni della Serie A è possibile quindi testare la validità dell’ipotesi di modifica nel comportamento di alcuni dei club medio-piccoli. I risultati empirici sono però solo parzialmente in linea con le previsioni teoriche e nel paper si cerca di motivare tale esito.

75

SESSIONE LIBERA

INTERNAZIONALE REALE Coordinatore: Luca ZARRI Relazioni:

• The Evolution of World Trade and the Italian “Anomaly”: a New Look: Michele Di Maio e Federico Tamagni

• On the Robustness of Robustness Checks of the Environmental Kuznets Curve: Marzio Galeotti, Matteo Manera e Alessandro Lanza

• Does Antidumping Use Contribute to Trade Liberalization? An Empirical Analysis: Michael O. Moore e Maurizio Zanardi

76

The evolution of world trade and the Italian ‘anomaly’: a new look

Michele Di Maio Università di Macerata

Federico Tamagni

Scuola Superiore Sant’Anna, Pisa Obiettivo di questo lavoro è analizzare l’evoluzione del modello di specializzazione internazionale dell’Italia nel periodo 1980-2000. In particolare, il lavoro propone una spiegazione della ben nota ‘anomalia italiana’. Con questo termine si indıca il fatto che, a differenza di paesi di simile reddito pro-capite, l’Italia era (ed è) fortemente specializzata in settori ad alta intensità di lavoro e presenta un vettore delle esportazioni più simile a quello dei paesi emergenti che a quello dei partner europei. La cosa per certi versi sorprendente è che questa anomalia non sembra essere stata un ostacolo alla crescita del paese, almeno fino a tempi recenti. Questo lavoro offre una spiegazione di come questo sia stato possibile e perché, probabilmente, non lo sarà più. L’importanza del modello di specializzazione internazionale per la crescita è ormai ampiamente documentato nella letteratura. Non è ancora però chiaro, da un punto di vista teorico, se ciò che maggiormente conta sia il grado assoluto di specializzazione (cioè quanto si è specializzati nei settori nei quali si gode di vantaggi comparati), oppure se quello che conta è essere specializzati in particolari settori. In altre parole se ciò che importa è il grado o la qualità della specializzazione internazionale di un paese. Rispondere a questa importante domanda è decisamente complicato anche da un punto dı vista empirico. Il recente lavoro di Hausmann, Hwang e Rodrik (2005) propone una metodologia che può essere utile ad affrontare la questione. Certamente la loro non è la prima proposta in questo senso, ma di certo ha il pregio di essere molto intuitiva e facilmente implementabile. In questo lavoro, applichiamo la metodologia da loro proposta al fine di analizzare l’anomalia italiana. Nella prima parte del lavoro analizziamo in modo approfondito le caratteristiche dell’indice PRODY (Hausmann et alt. (2005)) e, utilizzando tecniche parametriche e non parametriche di stima della distribuzione, descriviamo l’evoluzione dell’indice durante il periodo 1980-2000. I risultati indicano che durante gli ultimi venti anni il commercio mondiale è stato caratterizzato da un forte aumento della presenza dei paesi in via di sviluppo ın molti settori e un (debole) processo di polarizzazione produttiva. Nella seconda parte del lavoro descriviamo in modo approfondito le caratteristiche del modello di specializzazione italiano e la sua evoluzione nel periodo 1980-2000 utilizzando il classico indice di vantaggio comparato rivelato (RCA) di Balassa. L’analisi svolte indicano che il livello di persistenza del modello di specializzazione italiano è molto alto. Mentre questo non è un risultato che differenzia l’Italia rispetto ad altri paesi sviluppati, ciò che è peculiare è il fatto che la correlazione intertemporale sia crescente. Le stime non parametrica della distribuzione dell’indice RCA per il ventennio 1980-2000 indicano ,

77

confermando studi precedenti, una evidente bi-modalità nei dati e un alto grado di persistenza. La stima congiunta delle distribuzione degli RCA nel 1980 e nel 2000 fa indica l’esistenza di un, seppure debole, processo di polarizzazione del modello di specializzazione: in altre parole aumentano sia il numero dei settori nei quali l’Italia è molto specializzata sia il numero di quelli nei quali è molto de-specializzata. Nell’ultima parte del lavoro passiamo ad analizzare la ‘qualità’ del modello di specializzazione italiano. Infatti, mentre l’analisi fin qui svolta offe una precisa e dettagliata descrizione del grado di specializzazione dell’Italia, nulla ci dice sulla sua ‘qualità’. Il recente articolo di Hausmann et alt. (2005) propone un nuovo indice utile a questo scopo. L’indice EXPY è costruito come media ponderata dei PRODY settoriali, dove i pesi sono dati dalla quota che ciascun settore rappresenta nel totale delle esportazioni del paese in esame. Due sono gli aspetti rilevanti di questo indice. Il primo è che questo indice risulta essere altamente correlato con il reddito pro-capite nazionale. Quindi, i paesi ricchi (poveri) tendono ad esportare beni esportati da altri paesi ricchi (poveri). Secondo, i paesi con più alto EXPY crescono più rapidamente. Queste due risultati permetto ad Hausmann et alt. (2005) di concludere che le possibilità di crescita di un paese sono in modo rilevante determinate dai settori nei quali è specializzato. Calcolando questo indice per l’Italia si ottiene un risultato piuttosto sorprendente: l’indice cresce durante il periodo 1980-2000. Nel lavoro di Hausmann et alt. (2005) solo 8 paesi su un totale di 90 registrato questo risultato. Questo indicherebbe che proprio il modello di specializzazione (seppur anomalo) avrebbe garantito all’Italia una crescita sostenuta durante gli ultimi 20 anni: l’anomalia italiana sarebbe stata una risorsa e non una ostacolo per la crescita. Per valutare la robustezza di questa conclusiıone, nell,ultima parte del lavoro descriviamo l’evoluzione del PRODY dei settori nei quali l’Italia è maggiormente specializzata. I risultati indicano chiaramente che i settori nei quali l’Italia è (come abbiamo visto in precedente) costantemente fortemente specializzata hanno registrato, nel periodo 1980-2000, una forte diminuzione del valore del PRODY ad essi associato In altre parole, l’Italia è fortemente specializzata in settori che hanno visto diminuire molto la loro importanza nel commercio mondiale. La nostra analisi indicherebbe, quindi, che il modello di specializzazione italiano, benché anomalo, non era sbagliato: lo è diventato col tempo non essendo stato capace dı adattarsi ai rapidi mutamenti che hanno caratterizzato l’evoluzıone del commercio mondiale e che qui abbiamo descritto.

78

On the Robustness of Robustness Checks of the Environmental Kuznets Curve

Marzio Galeotti

Università di Milano e FEEM

Matteo Manera Università di Milano-Bicocca e FEEM

Alessandro Lanza Eni S.p.A. e FEEM

The relationship between economic development and environmental quality is the subject of a long-standing debate. About thirty years ago a number of respected scholars, mostly social and physical scientists, attracted the public attention to the growing concern that the economic expansion of the world economy will cause irreparable damage to our planet. The authors of the famous volume The Limits to Growth ventilated the necessity that, in order to save the environment and even the economic activity from itself, economic growth cease and the world make a transition to a steady-state economy. In the last decade there has prevailed the economists’ fundamental view about the relationship between economic growth and environmental quality: an increase in the former does not necessarily mean deterioration of the latter; in current jargon, a de-coupling or de-linking is possible, at least after certain levels of income. This is the basic tenet at the heart of the so-called Environmental Kuznets Curve (EKC), probably the most investigated topic in applied environmental economics. About a decade ago a spat of initial influential econometric studies (Shafik and Bandyopadhyay, 1992; Grossman and Krueger, 1993, 1995; Panayotou, 1993; Shafik, 1994; Selden and Song, 1994) identified, mostly in the case of local air and water pollutants, a bell-shaped curve for pollution plotted against GDP. This behavior implies that, starting from low per capita income levels, per capita emissions or concentrations tend to increase but at a slower pace. After a certain level of income (which typically differs across pollutants) – the “turning point” – emissions or concentrations start to decline as income further increases. It must be said that in the case of global pollutants like CO2 the evidence is less clear-cut. Although many authors rightly warn against the non-structural nature of the relationship, if supported by the data, the inverted-U shape of the curve contains a powerful message: GDP is both the cause and the cure of the environmental problem. However, being based on no firm theoretical basis, the EKC is ill-suited for drawing policy implications. The inverted-U relationship between economic growth and the environment cannot be simply exported to different institutional contexts, to different countries with different degrees of economic development, not even to different pollutants. Particularly in the case of CO2 emissions the global nature of this pollutant and its crucial role as a major determinant of

79

the greenhouse effect attribute to the analysis of the CO2 emissions-income relationship special interest. Our reading of this literature distinguishes two phases. The first phase can be defined as that of enthusiasm, when the notion of EKC goes largely unquestioned. The efforts are concentrated on verifying the shape of the relationship, measuring the income value of the turning point(s), extending the investigation to other pollutants. The second phase witnesses the quest for robustness. The EKC is assessed and tested in various directions, including alternative functional forms, different econometric methods, inclusion of additional explanatory variables. In the last couple of years the EKC has come under a more fundamental attack, which points to the stationarity of the variables involved in EKC regressions. According to the theory of integrated time series it is well known that nonstationary series may or may not produce linear combinations that are stationary. If not, all inference on the EKC leads misleading results. Thus, even before assessing the shape or other features of the estimated EKC, the researcher should make sure that pollutant and income, if nonstationary, are cointegrated. It is therefore necessary to run tests of integration and cointegration to guarantee the existence of a well-defined EKC prior to any subsequent step. The evidence of panel integration/cointegration tests – a recent development in the econometrics literature – appears to lead to the conclusion that the EKC is a very fragile concept. This paper takes up this last and more fundamental difficulty in the current EKC econometric practice. In particular it is noted that the aforementioned stationarity tests are the standard ones (though in a panel context) where the order of integration of time series is allowed to take on only integer values. So, for instance, a linear combination between pollutant and income gives rise (does not give rise) to a valid EKC only if it is integrated of order zero (one). As a matter of fact, recent progress in econometrics has led to the formulation of the notion and tests of fractional integration and cointegration according to which the order of integration of a series needs not be an integer. The consequence of this fact is that there is a continuum of possibilities for time series to cointegrate – and therefore for the existence of EKCs – thus overcoming the zero-one divide. In this paper we carry out tests of fractional integration and of fractional cointegration using time series and cross-sectional data. We use as an example the case of carbon dioxide for 24 OECD countries over the period 1960-2002. The results show that more EKCs come back into life relative to traditional integration/cointegration tests. However, we confirm that the EKC remains a fragile concept.

80

Does Antidumping Use Contribute to Trade Liberalization? An Empirical Analysis

Michael O. Moore

George Washington University Elliott School

Maurizio Zanardi

Tilburg University & CentER Provisions for antidumping duties have long been a part of the multilateral trading system. Economists, by and large, have argued that these rules are distortionary practices that cause more economic harm than good. Proponents of the antidumping system argue that antidumping import restrictions are necessary to combat “unfair” trade by which foreign firms sell below “normal” value and cause economic harm to domestic industries. Other analysts have pointed to another potential benefit of antidumping. They argue that broad trade liberalization efforts have been enhanced by the presence and use of antidumping procedures. These observers argue that antidumping rules are a useful “safety valve” by which protectionist pressure can be reduced on a narrow range of products even as governments reduce trade barriers across the economy as a whole. If such a relationship could be demonstrated, then economists’ almost universally critical views of antidumping may need to be adjusted to account for one possible “upside” to the use of antidumping. This study represents the first attempt to evaluate empirically this safety valve argument of antidumping on trade liberalization. We use a new antidumping data set developed by the authors based primarily on individual governments’ antidumping publications to assess whether the number of antidumping initiations or the final imposition of antidumping duties have contributed to trade liberalization in a sample of 35 developed and developing countries for the 1988 to 2004 period. We examine both initiations and imposed measures to help ascertain whether there are any differential effects of industry requests for duties (as proxied by initiations) or antidumping restrictions finally imposed. We also control for macroeconomic conditions as well as for industry and country unobservables. As for trade liberalization, in this paper it is defined as the percentage change in applied tariffs for each country at the three-digit ISIC level. “Applied” tariffs are those in place and actually affecting trade flows, rather than those agreed upon at multilateral trade negotiations (i.e., “bound” rate). Changes in applied tariffs represent the clearest and most easily interpreted modifications in trade policy in a given country. We do not develop a formal theoretical model for the analysis. Instead, we estimate a reduced form equation that allows for various types of influences on the degree of tariff reduction: antidumping actions, macroeconomic conditions, initial tariff levels, and industry level controls.

81

Initially, we only exploit variation at the national level in the explanatory variables. Evidence for these regressions indicates that when both groups (i.e., developed and developing) of countries are combined in a single dataset that there is some evidence that antidumping use is correlated with later tariff reductions. In particular, the coefficients for antidumping measures imposed in the base year for the trade liberalization, as well as for the three year total of antidumping investigations and imposed measures prior to the tariff changes, are all positive and significantly different from zero. When we include sectoral variation in the controls and allow for industry/country fixed effects, the explanatory power of antidumping use is less consistent. The econometric results suggest that antidumping was not an important component to reducing tariffs in the sample period for developing countries. For developed countries, the positive relationship between antidumping use and trade liberalization found above was less robust and consistent than in the previous specification. And this relationship was even more tenuous when we examined the immediate pre- and post-Uruguay Round period for developed countries. Finally, when we define trade liberalization in an alternative fashion, we see evidence that developing countries are less likely to reduce tariffs when they either launch investigations or impose antidumping duties in the same 3-digit ISIC sector. A final assessment about whether an antidumping process yields net economic benefits because of its impact on trade liberalization would require further work. In principle, one would need to compare the economic inefficiencies created by the entire antidumping system with the possible increase in trade liberalization in developed countries indicated in this study. The answer is ultimately an empirical question and our results shed little light on this subject other than to say that there is some evidence that such a trade-off might exist. There seem to be at least some weak and fragmentary evidence that antidumping proponents’ arguments that the system may help trade liberalization cannot be dismissed out of hand, at least for developed countries. Developing countries trade reform efforts, on the other hand, seem to be, if anything, hindered by their own use of antidumping measures.

82

SESSIONE LIBERA

MERCATO DEL LAVORO E ISTRUZIONE Coordinatore: Martina MENON Relazioni:

• Scholarships or Student Loans?: Alessandro Cigno e Annalisa Luporini • The Effect of Education on Youth Mortality: Piero Cipollone, Debora Radicchia e

Alfonso Rosolia • Be as Careful of the Books you Read as of the Company you Keep. Evidence on Peer Effects

in Educational Choices: Giacomo De Giorgi, Michele Pellizzari e Silvia Redaelli

83

Scholarships or student loans?

Alessandro Cigno, Annalisa Luporini University of Florence, CESifo e CHILD

The paper asks the following question. Given that, in the absence of full contingent markets, a number of school leavers who would otherwise choose to invest in a higher education will not do so, which is the best way to help these young people attend university? The straight answer is that a scholarship scheme financed by a tax on graduate earnings is always at least as good as a loan scheme. An income-contingent loan scheme can at best replicate the allocation brought about by a scholarship-cum-graduate tax scheme, and only on condition that there is nothing to stop the public authority using tuition fees as if they were taxes. In the presence of an additional restriction, that a loan repayment cannot be greater than the value of the loan capitalized at market interest rates, a loan scheme will exclude not only some rich, but also some poor young people. While the former will attend university anyway, the latter will be excluded not only from credit, but also from university. If it cannot be larger than the value of the loan capitalized at market interest rates, a loan repayment can be income contingent only if the policy is subsidized out of general taxation. Key words: higher education, scholarships, student loans, graduate tax, tuition fees, moral hazard, agency problem. JEL: I21, I22, I28.

84

Gli effetti dell’istruzione sulla mortalità giovanile

P. Cipollone, D. Radicchia e A. Rosolia L’esistenza di rendimenti sociali dell’istruzione è sotto l’attenzione degli economisti da molto tempo. Tale interesse nasce dalla considerazione che le decisioni sul proprio livello di istruzione potrebbero risultare inefficienti dal punto di vista della società perché, riflettendo esclusivamente i costi e i benefici privati, non tengono conto delle conseguenze di una maggiore scolarità per la società nel complesso. In questo lavoro studiamo l’effetto dell’istruzione sul tasso di mortalità giovanile, un indicatore sintetico sia dello stato di salute individuale sia della tendenza a comportamenti a rischio. I riflessi sociali di questo nesso risiedono nella considerazione che un migliore stato di salute e una minore propensione a comportamenti a rischio di un dato individuo hanno evidenti conseguenze per la società. A titolo di esempio, i minori costi del sistema sanitario, un minor numero di incidenti, meno giornate lavorative perse per malattia e il conseguente minore costo implicito di riorganizzazione delle attività quotidiane, la conservazione del capitale umano accumulato. Dal punto di vista empirico, il livello di istruzione è correlato positivamente con molte misure dello stato di salute e negativamente con il tasso di mortalità e l’incidenza di comportamenti a rischio. Queste relazioni emergono sia nei confronti tra individui sia in quelli tra paesi. Tuttavia tali correlazioni non sono sufficienti per stabilire se lo stato di salute, la probabilità di decesso o di comportamenti a rischio siano influenzati dal livello di scolarità. Esse infatti potrebbero riflettere la presenza di fattori che concorrono a determinare sia lo stato di salute sia il livello di istruzione. Per esempio, individui più capaci potrebbero ottenere livelli di istruzione maggiori e allo stesso tempo essere più consapevoli delle conseguenze di determinati comportamenti per il loro stato di salute. Bisogna poi considerare la possibilità che sia lo stato di salute a influenzare il livello di scolarità. Per esempio, vi è evidenza che una salute cagionevole nell’infanzia incida negativamente e in modo permanente sui rendimenti scolastici. Nel nostro lavoro mettiamo in relazione la quota di diplomati tra i nati di una specifica coorte in un dato comune, desumibile dal censimento della popolazione del 1991, con il tasso di mortalità successivo al 1991 per lo stesso gruppo di individui desumibile dai certificati individuali di morte raccolti dall’Istat. Per risolvere i problemi di identificazione illustrati sopra sfruttiamo l’esenzione dall’obbligo di leva concessa ad alcune coorti di ragazzi residenti dei comuni colpiti dal terremoto dell’Irpinia del 1980. Riteniamo che la cancellazione inattesa degli obblighi di leva tenda ad aumentare la frequenza scolastica: gli incentivi a investire in istruzione aumentano poiché i benefici potranno essere goduti nel corso di un più lungo orizzonte lavorativo. Tuttavia, l’analisi empirica deve tenere conto del fatto che in questo particolare frangente l’esenzione fu concessa in conseguenza di un terremoto, che potrebbe aver altresì influenzato le scelte scolastiche delle popolazioni colpite (ed esentate). Per esempio, i danni alle scuole, non consentendo un normale svolgimento delle attività scolastiche, potrebbero aver generato ritardi nell’avanzamento; oppure, i fondi stanziati a copertura dei danni potrebbero aver alterato le scelte di scolarità nelle famiglie che li ricevettero. Per ovviare a questi problemi, limitiamo la nostra analisi a

85

un campione costituito dai residenti nei soli comuni sul confine dell’area ufficialmente dichiarata terremotata e a cui gli interventi furono indirizzati (Campania, Basilicata e alcuni comuni della provincia di Foggia) e da quelli residenti nei comuni immediatamente confinanti ma al di fuori di questa area (Lazio, Molise, Puglia, Calabria). Il primo gruppo di comuni, essendo tra i più distanti dall’epicentro, registrarono solo danni minimi, un fatto confermato dalle valutazioni ufficiali effettuate dal Ministero del Bilancio e della Programmazione Economica. Inoltre, per entrambi i gruppi di comuni, limitiamo il campione alle sole coorti esenti (1963-1965) e a quelle, non esenti, immediatamente precedenti. In questo modo siamo in grado di controllare sia per l’evoluzione secolare del livello di istruzione (dummies temporali) sia per la presenza di caratteristiche comunali non osservabili che concorrono a determinare il livello di istruzione e la mortalità delle coorti oggetto dell’analisi (effetti fissi di comune). Nell’analisi teniamo anche conto della dimensione della specifica coorte, che potrebbe generare effetti di congestione, e di alcuni tratti familiari ottenuti dal censimento del 1981 e dati dalle caratteristiche medie, a livello di comune, dei genitori dei ragazzi appartenenti alla specifica coorte. Il primo stadio dell’analisi quantifica gli effetti dell’esenzione sulla quota di diplomati nella coorte. I risultati mostrano che la probabilità di completare la scuola superiore aumenta di circa 2 punti percentuali per i ragazzi esentati dagli obblighi di leva. L’effetto è robusto a variazioni del campione sia per quanto riguarda le coorti analizzate sia per quanto riguarda i comuni. In particolare, limitando l’analisi ai soli comuni che, sulla base delle valutazioni ufficiali, non registrarono alcun danno e ai soli comuni confinanti non terremotati troviamo un effetto ancora maggiore, pari a circa 4 punti percentuali. Nel lavoro effettuiamo altri controlli di robustezza. In particolare, replichiamo l’analisi sia ipotizzando che l’esenzione fosse concessa alle coorti appena più vecchie negli stessi comuni sia supponendo fosse concessa alle stesse coorti ma residenti nei comuni appena fuori dell’area terremotata. Qualora le nostre stime catturassero un effetto di coorte o un effetto geografico o semplicemente degli errori di misura, ci aspetteremmo di trovare (in almeno qualcuno dei suddetti esperimenti) differenze significative tra i gruppi a confronto. Tuttavia, in entrambi i casi i risultati non mostrano alcuna differenza significativa nel confronto di questi campioni fittizi con appropriati gruppi di controllo, fornendo ulteriori elementi in supporto della credibilità del disegno sperimentale adottato nel lavoro. Il secondo stadio dell’analisi quantifica gli effetti dell’esenzione sui tassi di mortalità a vari orizzonti e per varie cause. Utilizziamo le informazioni su data di nascita e di decesso, sesso e comune di nascita per costruire tassi di mortalità a livello di coorte e comune di nascita consistenti con le unità osservazionali alla base del primo stadio dell’analisi. Il confronto tra i tassi di mortalità complessivi tra il 1991, momento in cui osserviamo anche la quota di diplomati per le singole coorti, e il 2001, ultimo anno per cui sono disponibili i dati, mostra una differenza di circa 0,3 punti percentuali in meno tra le coorti esentate. Tuttavia gli errori standard sono tali da rendere queste stime non significative ai consueti livelli. Limitandosi invece alle sole morti attribuibili a cause naturali, la quota di decessi tra il 1991 e il 2001 tra le coorti esentate dalla leva risulta ancora inferiore di circa 3 decimi di punto percentuale. In questo caso, però, le stime risultano molto più precise e pertanto significativamente diverse da zero. Questi risultati sono confermati in analisi dei tassi di

86

mortalità su orizzonti diversi: nei 15 anni tra il 1986, anno in cui l’istruzione superiore era presumibilmente completata per le coorti esentate, e il 2001 la differenza risulta pari a circa 0,5 punti percentuali e, come prima, significativa solo limitandosi alle morti naturali. Inoltre, le stime puntuali sono molto stabili a fronte di variazioni del campione sia nella dimensione geografica sia in quella per età e, come per la quota di diplomati, non risultano significative quando si effettuano analisi di esenzioni fittizie. Dal rapporto degli effetti dell’esenzione sulla quota di diplomati e sul tasso di mortalità tra il 1991 e il 2001 si può desumere una stima dell’effetto del completamento della scuola superiore sulla probabilità di decesso per cause naturali nel decennio tra i 25 e i 35 anni. I nostri risultati suggeriscono che il conseguimento del diploma implica una riduzione di questa probabilità tra 0,15 e 0,2 punti percentuali che si confronta con una probabilità di decesso per cause naturali tra il 25mo e il 35mo anno di età di circa il 2 per cento. Queste stime mostrano un forte impatto del livello di scolarità sulla mortalità successiva per cause naturali, anche in una popolazione, quale quella oggetto della nostra analisi, relativamente giovane (25-35 anni) suggerendo che le scelte di spesa pubblica per l’istruzione debbano tener conto anche dei significativi e pressoché immediati risparmi in termini di una minore spesa sanitaria.

87

Be as Careful of the Books you read as of the Company you keep. Evidence on Peer Effects in Educational Choices

Giacomo De Giorgi Stanford University

Michele Pellizzari

IGIER – Bocconi e IZA

Silvia Redaelli Università Bocconi

Peer behavior and peer quality are commonly believed to be among the most important determinants of many individual outcomes, particularly so for young people and their educational and early labour market decisions*. The identification of these effects is however very problematic due to the presence of two well known issues: the endogenous sorting of individuals into groups of peers and the reflection problem (Manski, 1993). The contribution of this paper to the literature is twofold. On the methodological side, we develop a new strategy for the identification of endogenous peer effects by exploiting a very detailed set of data about undergraduate students from Bocconi University and the peculiar structure of the degree programs offered by this institution. The second contribution is more substantial. In contrast to most studies in this literature, which have typically looked at either academic or labour market performance, we estimate the role of peer-effects on individuals’ choices of college major. In most industrialized countries, skill mismatch is a major issue and, at least part of it, is thought to be due to a slow response of educational choices to changes in the composition of labour demand (Katz and Murphy, 1992). It is therefore important to understand how these choices are made and peer influence is likely to play a crucial role. The analysis of the major choice takes advantage of the peculiar structure of the two most popular courses taught at Bocconi University: the CLEA (Corso di Laurea in Economia Aziendale) program for a specialization Business and the CLEP (Corso di Laurea in Economia Politica) program for a specialization in Economics. Students who want to attend one of these two programs, initially enroll in a common CLEA-CLEP track and only at the end of the third semester (i.e. after 1 and 1/2 years) choose whether to specialize in business or economics. During these first 3 semesters all students take 9 compulsory courses and attend lectures in randomly assigned teaching classes, the allocation to which is repeated for each of the 9 compulsory courses. This setting allows to define peer groups using information on teaching classes. In other words, we assume that student i interacts with the students who attend lectures in the same class and we weight peers by the number of classes taken together (up to 9). We,

* Katz and Case, 1991; Hoxby, 2000; Sacerdote, 2001; Duflo and Saez, 2002

88

thus, obtain peer groups that vary at the individual level: student i’s peers certainly study with i but also with other students who are not necessarily members of i’s peer group. Consequently, the peer groups of i and i′’s peers do not coincide, thus eliminating reflection. Moreover, since the allocation in teaching classes is random (according to an ad hoc algorithm designed by the IT services of the university), there should be no endogeneity issue in peer group formation. Thus, the combination of the particularly rich dataset, the repeated randomization process and the peculiar construction of the peer groups allows us to solve the two key econometric problems of this literature: reflection and selection. With this approach we are able to identify the causal effect of peers’ choice of major (economics vs. business) on one’s own decision. Results show that, indeed, one is more likely to choose a major when many of his/her peers make the same choice. We, then, look at whether students who specialize in a major following the choices of their peers and against their revealed relative ability (measured as the ratio of one’s average grade in economics and business courses during the first three semesters) perform better (in terms of average grades in the last three semesters, graduation mark and time to graduation) than similar students who chose the major against the majority of their peers and according to their revealed ability. Our findings indicate that the decision of following one’s peers in contrast with one’s revealed ability could lead to lower annual wages by about 52 euros, a penalty which could go up to a sizeable 580 euros per year in the case the student just fail to obtain full mark at graduation.

89

SESSIONE LIBERA

MACROECONOMIA Coordinatore: Nicola PAVONI Relazioni:

• Taylor Rule under Rule-of-Thumb Consumers and External Habits: an International Comparison: Giovanni Di Bartolomeo, Lorenza Rossi e Massimiliano Tancioni

• Mortgage Lending and the Choice between Fixed and Adjustable Rate: Monica Paiella e Alberto Franco Pozzolo

• Stochastic Discount Factor Volatility and the Coskewness Puzzle in the Cross-Section of Excess Returns: Valerio Potì

90

Taylor rule under rule-of-thumb consumers and external habits: an international comparison

Giovanni Di Bartolomeo, Lorenza Rossi, Massimiliano Tancioni

Long abstract In this paper we develop, estimate and simulate a simple New Keynesian Dynamic Stochastic General Equilibrium (DSGE) model with rule-of-thumb consumers and external habits. The acknowledgement of the relevance of the presence of rule-of-thumb consumers dates back to the contributions of Campbell and Mankiw (1989, 1990, 1991), who provided evidence on the existence of heterogeneous consumers. The relevance of their finding is that it raises the question of a strong violation of the permanent income hypothesis. On the basis of their results, only a fraction of households is able to plan consumption according to the standard Hall’s consumption function, (Savers), while there is a relevant fraction of households that equates current consumption to the current income period by period (Spenders). The theoretical and policy implications of consumer heterogeneity are rather strong. Considering the fiscal policy theory, an important consequence is that the Barro-Ricardo equivalence theorem does not hold if Spenders are considered*. The role played by Spenders has been more recently analyzed with respect to its implications for monetary policy, in New Keynesian theoretical frameworks (Amato and Laubach, 2003; Galì et al., 2003; Bilbiie, 2005). The general finding is that the presence of Spenders’ may alter dramatically the properties of these models and overturn some of the conventional results found in the literature. Amato and Laubach (2003) explore the optimal monetary rule with rule-of-thumb households and firms, showing that, while the monetary policy implications of rule-of-thumb firms are minimal, the optimal interest rate is sensitive to the presence of rule-of-thumb consumers. Galì et al. (2003) show how the Taylor principle becomes a too weak criterion for stability when the fraction of rule-of-thumb consumers is large. In particular, they show that when the share of Spenders is sufficiently large it may not be possible to guarantee a (locally) unique equilibrium. Bilbiie (2005) discusses the implications of limited asset market participation (generating rule-of-thumb behaviour) for optimal monetary policy, from both a theoretical and empirical point of view. His main point is that when limited asset market participation is considered a passive interest rate rule is consistent with a welfare-maximizing monetary policy. The aim of this paper is twofold. First of all, we provide the dynamic and stability properties of a model in which both rule-of-thumb consumers and external habits in Savers’ consumption are considered. Second, on the basis of country-specific

* For this reason, Savers are often referred to as Ricardian consumers and Spenders as Non-Ricardian consumers (Mankiw, 2005).

91

estimates of the structural parameters, we evaluate the empirical relevance of our hypotheses and the potential heterogeneity of the effects of the monetary policy. Concerning the first objective of our research, we analytically discriminate, on the basis of the fraction of Spenders, between two different demand regimes (i.e. two IS-curves), characterized by sign inversion of the coefficient capturing the relationship between the real interest rate and expected consumption growth, and check the determinacy properties of the model. According to the degree of activism* of the monetary policy, we thus identify three possible policy regimes, i.e. behaviour of the economic variables to a monetary policy shock. More specifically, in the standard demand regime, if monetary policy is set according to a Taylor rule augmented by a monetary policy disturbance a negative interest rate disturbance always implies a increase in the output gap and inflation. By contrast, in the inverse regime, two different situations can occur. For relatively high degrees of activism, a positive monetary disturbance will affect the economic outcomes as in the standard regime even if the semi-elasticity of the aggregate demand with respect to the real interest rate is positive, but when policy activism is weak, the monetary shock has a deflationary effect as it will decreases inflation and real output. The joint consideration of habits persistence in consumption and of Non-Ricardian consumers increases the complexity of the model, since the monetary multiplier becomes highly nonlinear. Employing numerical simulations we show that the introduction of habits, by increasing the threshold fraction of Spenders for which a sign inversion of the monetary multiplier can be obtained, reduces the probability of obtaining a regime shift in the demand schedule. Regarding determinacy, we find that, in the case of a positive correlation, standard results hold, i.e. if monetary policy follows a standard Taylor rule determinacy is always associated to the satisfaction of the Taylor principle. By contrast, if the correlation is negative, we find different requirements for stability, that are conditional on the magnitude of the effects of interest rates changes on the real output. Hence, the non-conventional results stressed by Galì et al. (2003) hold only if the relationship between expected consumption growth and real interest rate is negative. Concerning the second objective of our research, which we deem as particularly relevant for the analysis of the potentially heterogeneous effects of monetary policy shocks among countries†, we base our analysis on numerical simulations of DSGE models parameterized employing single countries’ estimates of the structural coefficients‡. The complexity and nonlinearity of the structure of the model suggests the implementation of a Bayesian Monte-Carlo Markov Chain estimation procedure (MCMC).

* By “degree of activism” we mean the dimension of the reaction coefficient of the monetary authority to inflation deviations from the policy target. † The importance of these potential drawbacks is evident in the fact that the EMU countries face a centralized monetary policy. ‡ The values of the deep parameters are not calibrated or fixed on the basis of previous evidence, as in the standard practice.

92

From the simulation of the estimated structural models we derive the general efficacy of the monetary policy, even if we also find relevant asymmetries in the monetary transmission mechanisms. The presence of asymmetries in the monetary transmission channels stimulates a serious reconsideration of the policy prescriptions, in particular of those that have been derived without taking into account that the differences among economies may result decisive in the determination of the effects of the policy, in particular with respect to their symmetry among countries. Despite the heterogeneous sensitivity to shocks, the dynamical properties of the models resulted qualitatively in line with those predicted by the conventional New Keynesian DSGE model. In particular, the estimated structural parameters rule out the possibility of demand regime inversions due to the presence of rule-of-thumb consumers. Even if the fraction of Spenders is relevant in many countries (0.26 on average), in none of them this fraction is high enough to generate the regime inversion. A further interesting result is that, despite the model is able to generate the so-called “price puzzle” for habits and rule-of-thumb parameters values that are not prohibitively high, the estimation has generated a parameterization that is not consistent with this outcome.

93

Mortgage Lending and the Choice Between Fixed and Adjustable Rate

Monica Paiella

Bank of Italy, Research Department

Alberto Franco Pozzolo Università degli Studi del Molise e Ente Luigi Einaudi

Negli ultimi anni si è registrato in gran parte dei paesi industrializzati un sensibile aumento dell’indebitamento delle famiglie per il finanziamento dell’acquisto di abitazioni. Le caratteristiche tecniche dei contratti di mutuo più diffusi non sono uniformi, ma variano da paese a paese soprattutto in ragione della durata originaria, della possibilità di rinegoziare le condizioni inizialmente pattuite e delle modalità di determinazione del tasso. Nonostante la liberalizzazione dei mercati finanziari abbia reso disponibile in ciascun paese una vasta gamma di forme contrattuali, le scelte delle famiglie sembrano ancora concentrarsi su alcuni schemi tipici (nel Regno Unito, ad esempio, prevalgono i mutui a tasso variabile, negli Stati Uniti quelli a tasso fisso). Il modo nel quale i rischi legati alla richiesta e alla concessione dei finanziamenti vengono ripartiti all’interno del sistema economico è tuttavia notevolmente influenzato dalla forma contrattuale utilizzata. Per questo motivo, si è recentemente sviluppato un filone di letteratura volto a valutare l’ottimalità delle scelte di finanziamento utilizzate dalle famiglie, i cui contributi paiono di notevole interesse anche ai fini delle valutazioni di politica economica. La questione è forse ancor più rilevante nel caso dell’Italia, dove la scelta delle forme di mutuo sembra essere caratterizzata da una forte inerzia, nonostante molti dei vincoli normativi che le avevano imposte in passato siano venuti meno. In considerazione del fatto che il mercato dei mutui nel nostro paese sta attraversando una fase iniziale di sviluppo, interventi normativi adeguati potrebbero favorire, anche sulla base dell’evidenza internazionale disponibile, la diffusione di forme contrattuali più adeguate per distribuire equamente i rischi all’interno del sistema economico. Il lavoro presenta i risultati della stima di un modello di domanda e offerta di mutui. L’analisi empirica mostra che la forte crescita dei prestiti erogati alle famiglie per l’acquisto di abitazioni è riconducibile sia alla riduzione dei tassi di interesse, come già evidenziato in lavori precedenti, sia all’aumento della concorrenza nel settore bancario. La principale determinante della scelta della forma contrattuale a tasso fisso o a tasso variabile è il differenziale in termini di tasso iniziale. Diversamente dal comportamento di un agente ottimizzante, descritto nella letteratura teorica, nell’operare questa scelta le famiglie italiane sembrano prestare poca attenzione all’interazione tra i rischi legati alla forma contrattuale del mutuo e i fattori di rischio non diversificabili a cui sono soggette (ad esempio, quelli legati all’andamento del mercato del lavoro, di quello degli affitti e, in generale, ai rischi finanziari) e attribuire invece grande importanza all’entità degli esborsi iniziali. Ne consegue il pericolo che la scelta di mutui a tasso variabile, a cui sono

94

generalmente associati esborsi iniziali inferiori, sia sub-ottimale dal punto di vista della gestione del rischio individuale. Dalla stima del modello emerge inoltre che la domanda di credito di coloro che scelgono un mutuo a tasso fisso è caratterizzata da un’elasticità ai tassi di interesse elevata e superiore a quella della domanda di chi preferisce un tasso variabile. Questi ultimi sembrano invece scegliere l’ammontare del finanziamento esclusivamente sulla base del prezzo e della dimensione dell’abitazione desiderata. Dal complesso dell’evidenza presentata si può concludere che i detentori di mutui a tasso variabile sono soggetti relativamente più rischiosi, un dato che si riflette anche nella richiesta di premi per il rischio mediamente più elevati da parte delle banche. Nel complesso, l’analisi effettuata suggerisce che modifiche del contesto economico, (per esempio, variazioni dei tassi d’interesse o shock macroeconomici) potrebbero avere conseguenze rilevanti per il welfare delle famiglie che hanno scelto un mutuo a tasso variabile. Dal punto di vista delle banche non vi è invece evidenza di un’eccessiva assunzione di rischi. Classificazione JEL: D10, G1, G21, E4. Parole chiave: household mortgage demand, adjustable rate mortgages, fixed rate mortgages, lender mortgage pricing, endogenous switching regression model.

95

SESSIONE LIBERA

CRESCITA Coordinatore: Giam Pietro Cipriani Relazioni:

• Collective Norms in Basic Research and Economic Growth: Maria Rosaria Carillo e Erasmo Papagni

• Is Europe Becoming a Knowledge-Driven Economy? Evidence from EU Developed Regions: Alessandro Sterlacchini e Francesco Venturini

• The Long-Run Impact of ICT: Francesco Venturini

96

Collective Norms in Basic Research and Economic Growth

Maria Rosaria Carillo, Erasmo Papagni In this paper we have put forward a model of basic research and long-run economic growth in which the system of incentives to scientific work may produce positive feedbacks and increasing returns. The organization of basic research presents both real and non-real incentives to workers. The state organizes production of new knowledge - a public good that improves firms’ technology - with resources taken from the private sector. Scientists compete with one another to attain priority over a discovery and be awarded both a real prize and prestige in the scientific community. Also, scientists derive job motivation from their search for status in the community. The model shows interesting dynamics and we focus on two locally stable steady-states. The picture that emerges shows, on the one hand, an economy endowed with a small science sector where researchers have high relative income but low prestige, and competition for discoveries is weak. On the other hand, the high growth steady-state describes an economy with a large science sector. The scientific community rewards members who obtain new findings with high prestige, but as the effect of creative destruction is strong, there is fierce competition among researchers. Comparative statics shows that if the scientific infrastructure is poor, policies that increase tha marginal benefits from a discovery have perverse effects, hile policies aimed at improving the selection mechanism of the science sector work well. The same policies have opposite effects at the high steady state.

97

Is Europe becoming a knowledge-driven economy? Evidence from EU developed regions

Alessandro Sterlacchini, Francesco Venturini

Faculty of Economics Polytechnic University of Marche

The weak European knowledge base has been recognised as one of the main causes of the recent “Atlantic divide” in terms of economic growth. This awareness is at the roots of the Lisbon strategy aimed at transforming Europe in “the most competitive and dynamic knowledge-based economy in the world”. In order to assess whether this strategy will be able to produce the expected outcomes, we examine the recent performances of the developed European regions. Indeed, many studies have highlighted that the overall weakness of the EU is coupled by strong regional differences in terms of innovation and knowledge capabilities so that testing whether these differences are significantly related to regional growth rates is useful both for analytical and policy purposes. We then analyse, for the period 1995-2002, the change of per capita GDP (at constant prices) across 154 NUTSII regions of the EU with a level of GDP per capita equal or above 75% of the EU25 average. There are two main reasons for confining the study to EU developed regions. First of all, they are included in the new “competitiveness and employment objective” of the EU regional policy for the period 2007-13 and, according to the EC guidelines (European Commission, 2004), they should be the main carriers of the Lisbon strategy. Secondly, the backward regions of the EU have not yet reached a minimum threshold of knowledge and innovation activities so that, in the medium term perspective of the present study, one cannot expect that additional investments in these fields will generate for them substantial economic benefits. As explanatory variables of regional growth we employ, along with the initial level of per capita GDP, a set of innovation and knowledge indicators: the intensities of R&D and EPO applications, the employment shares in high-tech manufacturing and services and the percentage of adults with tertiary education. As controls for structural characteristics, we use the population density and the shares of employment in total manufacturing and business services. Thus, compared to previous empirical studies, in our growth regression we employ an exhaustive set of controls and conditional variables. Another feature differentiating our analysis from the previous ones, is that the above regression is estimated by controlling for different specifications and econometric procedures. The first one is an OLS regression in which all the variables are expressed as deviations from country means: with this treatment of regional data, the Lagrange multiplier tests for spatial error dependence and spatial lags (computed by means of a distance matrix) indicate that OLS estimates are not affected by spatial correlation. Without a country demeaning, instead, the presence of both kinds of spatial dependence is detected so that, as a second estimation technique, we run two Maximum Likelihood (ML) regressions for, respectively, a spatial error and a spatial lag model. Moreover, we provide

98

further ML estimates by treating separately the spatial interactions among domestic and foreign regions. All the above estimation procedures converge in showing that the regional changes of GDP per capita over 1995-2002 are positively and significantly affected by the intensity of R&D and the share of adults with tertiary education, measured at the beginning of the period. Thus, our findings support the basic rationale of the Lisbon strategy, i.e. that a sustained investment in R&D, knowledge and education is a crucial condition for a growing Europe. JEL codes: O18, O33, R11. Keywords: Regional growth. Knowledge and innovation. Spatial dependence.

99

The long-run Impact of ICT

Francesco Venturini Faculty of Economics

Polytechnic University of Marche

Capital input accumulation has been the primary source of the world’s output growth between the end of the twentieth century and the beginning of the current one. Since 1995 the acceleration in the growth rate of output and labour productivity can be traced for a large fraction to the advances in Information and Communication Technology (ICT). The impressive improvement in the price-performance ratio of microelectronic components has fuelled the rise in technical efficiency of ICT producing industries and the rapid adoption of computers, software and communication equipment by firms and households, as a consequence of price decline. The growth impact of ICT has been particularly sizeable in the US as well as in some other countries of OECD area (Finland, Korea and Australia). Also, it has been substantial even in such developing economies as China and India. Aside from few episodes, instead, Europe seems to have lost momentum and, for this reason, recently the EU institutions have renewed with great emphasis their medium-term initiative towards the construction of a common information-based economic space. Thus far, the relevance of ICT for national performance has been detected mainly through growth accounts, decomposing output growth into the income share-weighted rise of various factor inputs. On the other hand, econometric literature has focussed principally on short-run effects of ICT equipment, sometimes comparing countries on the basis of industry data. After a decade from the advent of the often-called Information Age and, not secondarily, a quarter of century from the first wave of investments in office machinery, it seems useful to investigate the growth effects of ICT from a long-run perspective, through a panel cointegration analysis. Given the nature of general purpose technology, the productive impact of digital capital is likely to fully materialize only in a long-term horizon, especially at the most aggregate level of analysis; by applying the usual methods of estimation on short-differences, there is the risk that a part of its contribution remains neglected. This paper aims at gauging the impact of ICT capital on GDP levels for the US and the EU-15 countries over the period 1980-2004. We estimate an aggregate production function employing two newly available procedures which represent the dynamic extension of panel ordinary least squares and seemingly unrelated regression (PDOLS and DSUR). A considerable variation arises in the elasticity of ICT in relation to the technique of estimation utilised. Information technology is found to indistinctly affect output within PDOLS regression, after controlling for country-specific heterogeneity; in this case, however, the returns to ICT capital do not differ from the ones estimated in the short-run. By employing DSUR there is confirmation that ICT matters for growth, but not uniformly within Europe. In line with the sound of growth accounts studies and previous

100

econometric literature, it is documented that the largest EU economies (France, Germany Italy and UK) have not benefited significantly from digital capital. Moreover, the long-run coefficient of digital capital is found to exceed the one obtained on short differences by means of static SUR, stressing the importance of adopting panel cointegration techniques to study the growth effects of ICT.

JEL Classification: C33, E20, O47. Keywords: ICT, economic growth, panel cointegration analysis.

101

SESSIONE LIBERA

INDUSTRIALE Coordinatore: Angelo ZAGO Relazioni:

• The Underlying Internal Learning Processes of Incremental and Radical Innovations: An Empirical Analysis of the Reggio Emilia Industrial Districts: Paolo Pini e Grazia D. Santangelo

• Political Economy of Mass Media: Public Good, News and Voting Behaviour: Cosimo Scagliusi

• Complementary between Heterogeneous Human Capital and R&D: can Job-Training Avoid Low Development Traps?: Sergio Scicchitano

102

The underlying internal learning processes of incremental and radical innovations: An empirical analysis of the Reggio Emilia industrial districts

Paolo Pini

Facoltà di Economia, Università degli Studi di Ferrara

Grazia D. Santangelo Facoltà di Scienze Politiche, Università degli Studi di Catania

In the economics of innovation several domains remained to be explored as far as the relationship between innovation and organisation is concerned (Tushman and Nelson, 1990). This notwithstanding, this relationship has played a strategic role in the history of the capitalist system when considering that firm’s internal organisation has traditionally impact on its innovative and economic performance. This has been reflected in the shift from old models of production organisation to new models centred on the conception of the firm as a learning organisation (Penrose, 1958) in the sense that firms’ organisational capabilities are a reflection of routinised practices developed over time. Along these theoretical lines of thought, post-fordist models of production organisation (such as the Swedish (Berggren, 1992) and Japanese (Aoki, 1988) model) are based upon functional flexibility made operational through the active involvement of workers in production activity. Similarly, as far as firm’s innovative activity is concerned, if the distinction between radical and incremental innovation can be traced back to Schumpeter’s work, the relationship between different innovation types and firms’ internal organisation has been explored more recently mainly in the management literature. However, current studies have missed, as far as our knowledge is concerned, to dig deeper in this relationships by investigating the underlying learning processes. In attempting to fill this gap, the paper can be framed within the evolutionary approach to technological change, which understands firms’ organisation as encompassing the development of firms’ successful routines making their knowledge operational. As argued by Malerba (1992) different types of learning internal and external to the firms are at work. In this study, we are interested in internal types of learning (e.g. learning by doing related to production activity, learning by using related to the use of products, machinery and inputs, and learning by searching mainly related to formalised activities (i.e. R&D) aimed at generating new knowledge (Ibid.)), the ultimate aim being to understand the role of firms’ internal organisation in shaping and orienting innovation. The question we attempt to answer is whether the introduction of incremental and radical innovation underlies different learning processes in terms of de-verticalised labour organisational practises, different modes of organising R&D activity and the nature of employees’ competences. More specifically, we hold that incremental innovation is mainly grounded on a problem-solving activity based on a learning by doing and learning by using process. Conversely, radical innovation mainly relies on a problem-solving activity based on learning by searching process.

103

The econometric exercise is carried out in the context of the Reggio-Emilia province (Eurostat NUTS 3) hosting an industrial district in mechanicals, ceramics and made-in–Italy sectors, by using a dataset stemming from a questionnaire administered to 166 industrial companies with at least 50 employees out of 257 (i.e. about 65%) firms with local establishments in the province in question, for which balance sheets information was available. The empirical evidence points out the heterogeneity of innovative activity as far as incremental and radical innovations are concerned. More specifically, the adoption of de-verticalised labour organisational practices indirectly impacts on the likelihood of introducing incremental innovation through productivity (understood as the firm’s problem-solving capabilities in production issues accumulated over time). That is, the greater the adoption of de-verticalised labour organisational practices the greater the productivity of the firm as a result of its experience translated in learning. The active participation of workers to everyday problem-solving activity related to production issues enhances the ability of the firm to survive in the market by both developing internal problem-solving trajectories and then responding timely to market feedbacks and signals. In turn, the greater the firm’s productivity, the greater the likelihood of the firm to introduce incremental innovation as a result of the learning by doing and learning by using process underlying this innovative activity. Similarly, being mainly an amelioration of existing products and processes, incremental innovation is hardly the result of an R&D activity internal to the firm. Rather, it draws on existing competences given its competence-enhancing nature. Conversely, in the case of radical innovation the main drivers seem to be the existence of an in-house R&D activity and new employee’s competences, both of which reflect an internal learning by searching process. Firms internally conducting research activity accumulate by trial and error competences grounded on their specific learning by searching path which is feed by new employees’ competence enabling the firm to face the competence-destroying nature of this innovation.

104

Political Economy of Mass Media: Public Good, News and Voting Behaviour

Cosimo Scagliusi

Dipartimento di Scienze Economiche – Universita’ di Bari Department of Economics – University of Exeter

Political Economy is one of the fastest growing sub-fields of Economics. It has been characterized as a discipline which analyses the interaction between the political system and the economic organization of markets, firms and consumers. Alternatively Political Economy has been described as the discipline analysing the behaviour of the players in the political arena with the toolbox of Economics, in particular the one of Game Theory. Although Political Economy has started investigating incentives, behaviours and relationships among several political institutions, one actor has been (relatively) neglected in the analysis: mass media. In every democracy, mass media play a crucial role in assuring the effective working of the political system. In the existing literature about political economy of mass media three roles have been individuated regarding the interaction of media with politicians and citizens: the “top-down” function, where media act as a “megaphone” of the politicians; the “bottom-up” function, where media help the citizens in airing their views and influencing the political agenda of the politicians; the “watchdog” function, where the media supervise politicians quality and communicate their findings to the public at large. In this paper I focus on the role of media as ʺwatchdogʺ, by building on the previous literature in this field and in particular on the work by Besley and Prat (2006). Previous work has assumed that all the information about the incumbent politician is made available to citizens through mass media uniquely. Mass media have the role of discovering the incumbent quality and reporting their findings to the citizens. They do so not (only) for the public-spirited role of the journalists but because media are motivated by economic incentives: by selling information valuable to citizens in their voting decision, media can be sure to gain some extra-profit on top of their normal one. The literature in this field shows that the presence and the supervising activity of mass mediaundoubtedly increase citizens’ welfare. Moreover this literature has also dealt with the issue of collusion between media and dishonest politician. Given that media activity increases citizens’ welfare, then when media conceal information in exchange of bribes offered by dishonest politician this worsens citizens’ welfare. On the other hand this raises the reelection prospects of low quality incumbents. Empirical evidence seems to confirm that politicians are extremely concerned about the “watchdog” role of media and willing to go a long way towards limiting their impact on politics (see McMillan and Zoido (2004)). Another existing strand of the literature (recently Persson and Tabellini ch.4 (2000) and Besley and Smart (2003)) has highlighted how a good publicly supplied by the incumbent could be informative of his quality; in turn this could help the citizens to select and/or

105

discipline the incumbent. In addition this literature has stressed the fact that low quality incumbent can behave in an optimal way if the right incentives are in place. This work examines how citizens’ welfare, voting decision and the collusion between media and politicians change if information about the incumbent politician comes from two separate sources: media information and good publicly supplied. To investigate these issues I employ a modified version of the model by Besley and Smart (2003) which features both adverse selection and moral hazard on part of politicians. Politicians differ alongside a quality dimension (honesty/dishonesty). Their task is to collect fiscal resources from the citizens and with taxes fund the production of a good consumed by the citizens. Dishonest politicians can reap (part of) the fiscal resources as rents. In this framework I introduce the role of media in collecting and spreading information to the citizens which they will use in their voting decision. Moreover I consider the possibility of collusion between media and incumbent politician and the effect that this has on the political game. One of my findings is that by employing both the two signals, citizens manage to sort out high quality politicians from low quality ones more often than if they were relying on media information only. Moreover the existence of both signals makes collusion harder to take place than in the case of one signal only. Intuitively, given the limited fiscal resources, the low quality (dishonest) incumbent finds it harder than the high quality one to both corrupt the media and implementing the policy necessary to be reelected. Since he has limited fiscal resources to utilise, then it will be harder for him to accomplish these two tasks. In addition, I conduct a full welfare analysis of the strategic situation under scrutiny and find that, contrary to the previous literature, the presence of media is not always welfare improving. My analysis stresses the fact that it is not always optimal to have media playing the watchdogs role and that the usefulness of media for citizens depends critically on the time parameter: when the time parameter is larger than a certain threshold, it is optimal for the citizens to recur to media; when the time parameter is lower than the threshold, their optimal decision is to commit not to get any information. Given this, I argue that it would be optimal to have constitutional rules that would allow for information or not depending on the parameters of the model. Moreover I conjecture that if rules at the constitutional level are not possible and citizens cannot commit to have less information, then collusion between media and politician can be welfare improving for citizens, contrary to prior evidence. References Besley, T. and Prat, A. (2006) “Handcuffs for the Grabbing Hand? Media Capture and Government Accountability”, forthcoming The American Economic Review. McMillan, J. and Zoido, P. (2004) “How to Subvert Democracy: Montesinos in Peru”, Journal of Economic Perspectives, American Economic Association, vol. 18(4), pages 69-92, Fall. Besley, T. and Smart, M. (2003) “Fiscal restraint and voter welfare”, mimeo, LSE and University of Toronto.

106

Complementarity between Heterogeneous Human Capital and R&D: can Job-Training Avoid Low Development Traps?

Sergio Scicchitano

Ministero dello Sviluppo Economico – Dipartimento Politiche di Sviluppo e Coesione e Università della Calabria – Dipartimento di Economia e Statistica

1. Introduzione Nella primavera del 2005, a metà del guado, è stata revisionata la Strategia di Lisbona. Punti cardine della revisione sono il capitale umano eterogeneo - nelle sue articolazioni dell’istruzione e della formazione - e l’attività di R&D. Questi sono considerati i 2 punti chiave per far divenire, entro il 2010, l’Unione Europea (per altro con non poca enfasi) l’area più competitiva al mondo. Già da alcuni anni la letteratura economica sta studiando i legami fra training e R&D, a causa della loro crescente rilevanza per le economie dei principali paesi industrializzati:

ʺTraining is most essential when new technologies are adopted, or in the process

of a radical change of environment, for example, the shift from low- to high-skill jobs taking place in most OECD countries today.ʺ (Acemoglu, 1997, p. 446).

La complementarità fra training e innovazione è analizzata all’interno di due filoni della letteratura economica teorica, nonché da alcuni recenti lavori empirici. Da una parte, l’economia del lavoro, fin dagli anni ‘60 ha discusso dell’eterogeneità del capitale umano, composto non solo dall’istruzione, ma anche dall’on-the-job training, dall’ off-the-job training, dal learning by doing. Si studiano, in particolare, le complementarità fra le differenti componenti del capitale umano e fra esse e l’R&D. Dall’altra parte, la teoria della crescita endogena, a partire dai modelli di prima generazione e basati sulle complementarità fra R&D e capitale umano, non sembra tenere in considerazione l’eterogeneità di quest’ultimo, valutando gli effetti della complementarità fra un capitale umano omogeneo (solitamente identificato con l’istruzione) e l’attività di ricerca sul tasso di crescita di un’economia. Inoltre, un altro recente filone di lavori econometrici, ha fornito un supporto empirico ai legami fra il training fornito dalle imprese ai propri lavoratori e la loro attività innovativa. Questo modello prova a integrare questi diversi filoni: esso dimostra l’effetto dell’eterogeneità del capitale umano – e in particolare l’effetto del training in aggiunta all’istruzione – sul tasso di crescita di una nazione. 2. Motivazioni del lavoro e legami con la letteratura esistente

Questo paper è in relazione con alcuni filoni della letteratura economica. Innanzitutto, un trend di teoria della crescita endogena, studia le complementarità fra R&D e capitale

107

umano. In particolare un modello sviluppato da Redding (1996), studia le low-skill, low-quality traps generate dalla complementarità fra il capitale umano omogeneo e l’R&D, all’interno di un mercato del lavoro imperfetto. Un secondo filone analizza gli investimenti capitale umano eterogeneo all’interno di mercati del lavoro perfetti o non competitivi. Il lavoro originario di Becker (1964), sviluppato con mercati del lavoro competitivi, ha introdotto la distinzione, molto usata negli anni a venire, fra general e specific training da affiancare all’istruzione per determinare il tasso di accumulazione di capitale umano. Più di recente, Acemoglu (1997) ha dimostrato che, in mercati non competitivi, l’interazione fra innovazione e training causa inefficienze nell’offerta di training e molteplicità negli equilibri. Infine, sono stati resi noti negli ultimi anni i risultati di alcuni lavori empirici che investigano sui legami tra training e R&D. Questa letteratura ha rilevato che (I) i lavoratori con maggiori tassi di istruzione e occupati in mansioni high-skilled hanno maggiori probabilità di ricevere training (II) le imprese che offrono un training specifico per la loro attività innovativa sono anche quelle che introducono, usano e diffondono maggiormente le tecnologie più efficienti. Il mio lavoro riconduce alla distinzione fra general e specific training, ma la riferisce all’attività innovativa. In particolare, il punto chiave del paper è che definisco come technology-general (T-G T) il training adottato dalle imprese anche senza attività di R&D e fornito a tutti i lavoratori low e high-skilled e come technology-specific (T-S T) il training offerto dalle imprese solo quando queste innovano e solo ai lavoratori impegnati nell’attività di R&D. Queste due definizioni di training sono differenti dalle usuali tipologie beckeriane: le definizioni di Becker legano il training all’impresa che lo offre, mentre queste si riferiscono ai legami fra il training e le tecnologie in uso.

3. Il modello 3.1 Descrizione dell’environment Questo modello è basato su Redding (1996), ma lo estende introducendo l’eterogeneità del capitale umano. È lo stesso Redding a notare il limite del suo lavoro e a suggerirne una via d’uscita:

ʺFor the purpose of the present paper, we make the standard assumption that the education, training and skills of an economy’s workforce may be represented by an aggregate stock of human capital H…The many interesting issues concerning the heterogeneity of skills are left to one sideʺ (Redding 1996, p. 458).

In particolare, in un modello a generazioni non sovrapposte, utilizziamo la Nash Equilibrium Solution per poter ottenere un equilibrio con aspettative razionali. 3.2 Principali risultati: molteplicità negli equilibri e condizione solo necessaria ma non sufficiente. Contrariamente al modello di Redding (1996) che trovava due valori di equilibrio per il tasso di crescita di un’economia, questo modello ne genera altri due e l’attuale ʺHigh-

108

Growth Equilibriumʺ, ottenuto con la contemporanea presenza di T-G T e R&D, è maggiore dell’equilibrio corrispondente nel precedente modello. Nel modello di Redding (1996), poi, la ʺlow development trapʺ accadeva in mancanza di attività di R&D da parte delle imprese; la mancanza di attività innovativa era, cioè, condizione necessaria e sufficiente per ottenere un sentiero di bassa crescita. In questo modello la mancanza di R&D è condizione solo necessaria ma non sufficiente, perché se le imprese forniscono T-G T, il training è in grado, pur in mancanza di R&D, di sostenere l’accumulazione di capitale umano e in ultimo di favorire il tasso di crescita. In altre parole, affinché si generi stagnazione è necessario che le imprese non abbiano la capacità di innovare e che forniscano formazione solo ai lavoratori high-skilled coinvolti in una fruttuosa attività di ricerca. 4. Indicazioni di policy: favorire la formazione professionale e renderla indipendente dall’R&D per sostenere la crescita Dal modello si ottengono tre indicazioni di policy. Innanzitutto, le economie che intendono incrementare il livello medio di accumulazione di capitale umano possono supportare sia l’istruzione che la formazione professionale. In secondo luogo, una maggiore accumulazione di capitale umano può essere ottenuta sia direttamente con politiche per l’istruzione o per la formazione che, indirettamente, con politiche volte a favorire l’attività di R&D. Inoltre, al fine di conseguire un maggior tasso di accumulazione di capitale umano e di favorire la crescita economica, le imprese dovrebbero fornire un technology-general training, offerto cioè anche ai lavoratori non impiegati in R&D. Anche per ragioni di equità, poi, se il training è offerto solo ai lavoratori high-skilled, esso tende ad amplificare le disparità generate dai tassi di istruzione; perciò i governi dovrebbero supportare le imprese che sostengono l’accumulazione di capitale umano di tutti i lavoratori, attraverso programmi di formazione professionale. Così, questo modello dimostra che potrebbero essere richiesti dei sussidi pubblici per favorire l’offerta di T-G T e attivare circoli virtuosi di accumulazione di capitale umano e crescita economica: Proposition 8: A subsidy towards the cost of training may induce entrepreneurs to prefer technology-general training, allows the highest accumulation of human capital and takes the economy to the ʺHigh-Growth Equilibriumʺ 5. Conclusioni Questo modello ha introdotto l’eterogeneità del capitale umano all’interno di un modello di crescita endogena con generazioni non sovrapposte. Il lavoro ha dimostrato che la composizione del capitale umano, troppo spesso dimenticata nei modelli di crescita endogena, è rilevante nel determinare la probabilità di innovare e il tasso di crescita di un’economia.

109

Il modello ha concluso, come principale indicazione di politica economica, che i governi dovrebbero sussidiare l’offerta di un technology-general training per ottenere maggiori tassi di crescita ed evitare di accrescere le iniquità nell’accumulazione di capitale umano generate dai sistemi per l’istruzione. È stato dimostrato, infatti, che un training indipendente dall’attività di R&D delle imprese ed offerto a tutti i lavoratori è in grado di evitare le low development traps in mancanza di R&D.

110

SESSIONE LIBERA

TEORIA Coordinatore: Eugenio PELUSO Relazioni:

• Effort Provision and Information Acquisition in Different Organizational Forms: Maria De Paola e Vincenzo Scoppa

• Optimal Information Releasing in Multidimensional Public Procurement: Nicola Doni • Su Mandler e l’indeterminatezza sraffiana: Saverio Maria Fratini e Enrico Sergio

Levrero • Uncovered Set Choice Rule: Michele Lombardi

111

Effort Provision and Information Acquisition in Different Organizational Forms

Maria De Paola, Vincenzo Scoppa

Dipartimento di Economia e Statistica, Università della Calabria

In classical economic theory the firm is described as a black box transforming inputs into outputs according to a production function. No attention is paid to the way these inputs are organised and how decisional rights are allocated among the different agents operating inside the firm. This description of the firm has recently underwent some radical changes. One the one hand, incentive theory has considered problems of asymmetric information usually characterizing relationships taking place among the entrepreneur and her employees, while on the other hand, another strand of research has considered the influence of the allocation of decisional power among agents on the performance of different types of organizations. Thanks to these changes economic theory is now able to interpret many aspects characterizing relationships taking place among different subjects inside the firm, such as different types of remuneration contacts or hierarchical structures. The allocation of decisional rights varies among firms: in some cases, firms adopt a hierarchical organisation according to which some workers are required to provide effort for the realization of a production process directed and organized by a superior, who acquires the information critical to decision-making and transfers it to lower-level agents; in other cases, firms use an organisational system that allows employees decisional power and requires them to undertake decisions on the basis of their own information. The organizational system prevailing until 1950 was characterised by a strong centralisation of decisional rights and a highly specialized labour division. Recently, in all industrialized countries, firms are experimenting a completely different organizational structure, allowing great autonomy to workers and trying to use at best their information. The recent literature on hierarchical systems and on the allocation of authority in organisations provides some interesting insights for the interpretation of this phenomena. Some authors, considering decisional processes that require a large amount of information, which can not be processed by a single subject, analyse the influence of the organizational structure on elaboration and communication costs and on delays and specialization economies. In this view, the organizational change is interpreted referring to technological change, which reducing the cost of acquiring and transmitting information has allowed for a greater participation of workers to decision making (Bolton and Dewatripont, 1994; Garicano, 2000; Aoki, 1986; Radner and Van Zandt, 1992). Other works focus mainly on incentive problems. Aghion and Tirole, 1997, show that allowing decisional power to subordinate workers may increase their effort. As a consequence, according to this view, the diffusion of horizontal organizational systems

112

may be related to changes in workers’ task that make it more difficult to monitor their effort and then attribute a greater importance to incentives. In this paper we aim to consider in the same framework the process of information acquisition, the costs of communication and incentive problems with the aim to disentangle the interactions existing among them. We analyse the organizational structure taking into account two distinct tasks: the acquisition of information and the provision of effort. We assume that while the principal can decide whether to delegate the acquisition of information to the agent or to acquire it directly, the effort necessary to implement profitable projects must be provided by the agent. As a consequence, we describe hierarchy as a system in which the information critical to decision-making is acquired by superiors and used by lower-level agents, and decentralized organization as a structure in which the agent’s activity is based on his own information since he is involved both in effort provision and information acquisition. In our framework, information and effort are linked by a complementarity relationiship: the availability of valuable information has a positive effect both on the probability of realizing good projects and on the level of effort provided by the agent. It follows that under the hierarchical system the principal may use information acquisition as an instrument to enhance the provision of effort by the agent. However, there are costs in the transfers of the information acquired by the principal. Firstly, due to the fact that knowledge is often imperfectly transferable, only part of the information transferred by superiors is effectively used by their subordinates. Secondly, some of the acquired information may result inadequate due to changes in the economic environment. These communication and delay problems reflect in worse decisions and in worse incentives. On the other hand, assigning to the agent both the acquisition of information and the provision of effort determines agency problems not only with respect to the provision of effort but also with respect to information acquisition. We compare profits obtained under the two organizational choices showing that a reduction of communication costs tends to favour hierarchy, while a reduction in the agent’s costs of information acquisition increase the relative advantage of delegation. In the second part of the paper we investigate the effects produced by errors in performance evaluation on the choice among the two alternative organizational forms. We consider that the principal may recognize the positive result obtained by agent only a certain probability and we show that this reduces the relative advantage of the delegation system. In fact in this case, this kind of errors depress both the incentive to acquire information and the incentive to provide effort, while under hierarchy only effort provision is negatively affected.

113

Optimal Information Releasing in Multidimensional Public Procurement

Nicola Doni

Università degli Studi di Firenze

I principali modelli asta multidimensionali presenti in letteratura (Che, 1993; Branco, 1997; Asker et al., 2004) assumono che i concorrenti decidano autonomamente la qualità e il prezzo delle loro offerte e che l’aggiudicazione del contratto avvenga in modo totalmente automatico, senza che vi sia alcuna valutazione discrezionale del banditore. Allo stesso tempo, ipotizzano la presentazione simultanea di offerte complete, senza indagare quale possa essere l’esito di particolari procedure a più stadi, in cui gli aspetti qualitativi vengono valutati prima che le imprese debbano presentare le loro richieste economiche per la realizzazione del contratto. Questo articolo vuole analizzare in particolare il contesto delle gare pubbliche. La normativa europea più recente in materia di appalti ha introdotto alcuni nuovi tipi di procedura, in cui le proposte relative a diversi aspetti dell’offerta contrattuale possono essere formulate in momenti diversi. Il dialogo competitivo e le aste elettroniche possono assumere le caratteristiche di aste a più stadi e le direttive richiedono esplicitamente che nel bando siano specificate “le informazioni che saranno messe a disposizione degli offerenti nel corso della procedura e, se del caso, il momento in cui saranno messe a loro disposizione”. In un’asta a più stadi, in cui l’offerta economica è formulata dopo aver presentato quella qualitativa, la policy scelta dalla PA circa la rivelazione della sua valutazione della qualità è molto rilevante rispetto all’esito della procedura in quanto incide direttamente sulle strategie di offerta delle imprese. In questo lavoro confronteremo tre diverse strategie di rivelazione, che riteniamo possano rappresentare tre casi ammessi dalla legislazione vigente. Nel primo caso la PA mantiene un segreto assoluto circa la sua valutazione degli aspetti qualitativi delle offerte. Nel secondo caso rivela ad ogni concorrente soltanto la valutazione assegnata alla sua proposta. Nel terzo caso infine, assumeremo che la PA dichiari pubblicamente la graduatoria dei punteggi assegnati agli aspetti qualitativi dei vari partecipanti. L’originalità di questo lavoro consiste nell’assunzione che la qualità delle offerte non è decisa dai concorrenti, ma dipende esclusivamente dal giudizio discrezionale della PA. Il modello che proponiamo è il più possibile semplificato: assumiamo che vi sia una PA che vuole acquisire un bene tramite una gara a cui partecipano due sole imprese. Ipotizziamo che l’utilità che la PA deriva dallo scambio sia pari alla differenza fra la qualità dell’offerta e il prezzo richiesto dal venditore. La qualità dipende esclusivamente dai gusti o dalle considerazione della PA, per cui è una sua informazione privata. I prezzi invece sono proposti dalle imprese. La loro strategia di offerta riguarda quindi soltanto questo ultimo elemento e vedremo che ogni impresa deciderà il prezzo richiesto in funzione del proprio costo di produzione, che è una sua informazione privata, e delle informazioni a sua disposizione sulla valutazione che la PA ha fatto della sua qualità e di quella del

114

concorrente. Quindi la policy scelta dalla PA circa la rivelazione delle sue informazioni private influenza direttamente la strategia di prezzo delle imprese. L’analisi viene finalizzata a comparare le diverse strategie sotto due diversi punti di vista: quello della efficienza allocativa e quello della massimizzazione dell’utilità attesa della PA. Sotto il primo punto di vista, si dimostra che il meccanismo di asta risulta efficiente dal punto di vista allocativo solo quando la PA adotta la strategia di rivelazione privata delle informazioni. Allo stesso tempo però, tale strategia risulta in genere subottimale rispetto all’altro obiettivo. Si individuano infatti alcune condizioni sufficienti affinché l’utilità attesa della PA con tale strategia sia inferiore a quello atteso con la strategia di rivelazione pubblica delle informazioni. Infine, si dimostra che in presenza di differenze rilevanti nella qualità delle offerte, la strategia della segretezza risulta migliore rispetto a quella della rivelazione pubblica. Il fatto che la strategia di rivelazione pubblica delle informazioni risulti superiore, in genere, a quella della rivelazione privata, è molto importante in quanto ci permette di asserire che quando i concorrenti conoscono la valutazione discrezionale della PA sulla propria offerta, allora la migliore strategia del banditore è quella di rivelare pubblicamente tali informazioni. Un tale risultato può essere applicato alla procedura di dialogo competitivo, dove è plausibile pensare che nella fase di dialogo la PA sia portata ad esprimere esplicitamente una sua valutazione sulle soluzioni tecniche prospettate dalle diverse imprese. In tale caso quindi potrebbe essere opportuno rendere pubblica la graduatoria delle soluzioni tecniche presentate prima di richiedere l’ultima offerta economica. Allo stesso modo, la conclusione secondo cui la strategia della segretezza risulta migliore di quella della rivelazione pubblica quando la differenza potenziale nella qualità delle offerte è molto grande ci permette di affermare che, quando il peso delle valutazioni discrezionali della PA è molto rilevante, non è opportuna una rivelazione pubblica di tali informazioni.In tal caso la procedura ottimale resta quindi quella della presentazione di offerte tecniche ed economiche in modo simultaneo, come avviene in genere. Quindi un maggior flusso di informazioni sulle preferenze della PA può essere efficace solo nel caso in cui questa si impegni a restringere la rilevanza della sua valutazione discrezionale delle offerte.

JEL Classification: H57, D44, D82.

115

Su Mandler e l’indeterminatezza sraffiana

Saverio Maria Fratini e Enrico Sergio Levrero

Riprendendo le critiche di Hahn ed altri al libro di Sraffa Produzioni di merci a mezzo di merci Mandler ha argomentato che una spiegazione della distribuzione sulla base di forze diverse da quelle in termini di domanda e offerta potrebbe essere avanzata soltanto dimostrando l’indeterminatezza dell’equilibrio economico generale. Al contrario, sempre secondo Mandler, Sraffa avrebbe da un lato introdotto l’indeterminatezza dei prezzi in modo improprio, eliminando cioè le funzioni di domanda dei prodotti e dei fattori della produzione. Dall’altro, non distinguendo i prezzi per data, Sraffa avrebbe utilizzato una nozione di equilibrio – lo stato stazionario - in cui, “chiudendo”, come si dovrebbe fare, le equazioni di prezzo con le condizioni di equilibrio di domanda e offerta dei beni e dei fattori della produzione, l’indeterminatezza dei prezzi non potrebbe in genere verificarsi. Mandler ritiene però che l’indeterminatezza che egli chiama “sraffiana” – cioè quel tipo di indeterminatezza che renderebbe legittima una spiegazione della distribuzione sulla base di forze “non di mercato” – potrebbe essere affermata in modo “robusto” facendo riferimento a dei casi di equilibrio sequenziale. In particolare, Mandler considera un modello intertemporale sequenziale su due periodi in cui, all’inizio del primo periodo, i mercati sono incompleti, dal momento che non è possibile acquistare i beni di consumo consegnati nel secondo periodo, ma i prezzi attesi di questi beni sono determinati simultaneamente a quelli effettivi delle altre merci risolvendo un sistema di equilibrio di tipo Arrow-Debreu. Poiché attraverso questo equilibrio del primo periodo si determinano pure le quantità dei beni capitali che saranno disponibili per la produzione da svolgere nel secondo periodo, Mandler può allora argomentare che all’inizio del secondo periodo (quando i mercati riapriranno per consentire l’acquisto dei beni di consumo consegnati in quel periodo) le dotazioni iniziali dei beni capitali non saranno più arbitrarie. Di conseguenza, se la tecnologia è a coefficienti fissi ed i beni di consumo prodotti sono in numero minore rispetto agli input, Mandler dimostra che ciò condurrà “genericamente” alla indeterminatezza “sraffiana” dell’equilibrio del secondo periodo. Mentre l’insoddisfazione che emerge, nei lavori di Mandler, nei confronti dell’idea – che caratterizza le versioni neowalrasiane dell’equilibrio generale - di una arbitraria composizione fisica iniziale del capitale ci sembra condivisibile, la nostra relazione si propone di muovere principalmente due obiezioni all’interpretazione che Mandler dà del contributo di Sraffa. La prima obiezione è che l’indeterminatezza sequenziale di Mandler scaturisce da un uso ad hoc della tendenza alla uniformità del saggio di rendimento dei beni capitale sul loro prezzo di offerta, e non sembra dunque poter rappresentare una base solida per l’idea di Sraffa di una determinazione di tipo istituzionale e non meccanica o “semi-naturale” della distribuzione. Mentre infatti la composizione fisica del capitale reso disponibile all’inizio del secondo periodo viene in Mandler determinata sulla base del legame che esiste nel primo periodo tra il prezzo d’offerta e quello di domanda dei beni capitale; nel secondo

116

periodo, con la riapertura dei mercati, tale legame viene reciso. La composizione fisica del capitale è ora considerata data, e prezzi di domanda diversi (o non proporzionali) a quelli di offerta possono allora diventare compatibili con l’equilibrio del secondo periodo, generando il risultato di indeterminatezza. In secondo luogo, l’esigenza che secondo Mandler vi sarebbe, per poter considerare validi almeno alcuni dei risultati raggiunti da Sraffa, di argomentare l’indeterminatezza dell’equilibrio neoclassico ci sembra poggiare sulla negazione del fatto che il contributo di Sraffa si muove all’interno di una impostazione teorica diversa ed alternativa a quella neoclassica. Come egli stesso ci indica in Produzione di merci, la sua opera è volta infatti alla ripresa della teoria classica di Smith e Ricardo – teoria in cui non si ritrovano, né potrebbero avere un ruolo, le funzioni di domanda dei prodotti e dei fattori della produzione, ed il salario è preso come un dato nella determinazione dei prezzi relativi perché fissato in uno stadio distinto dell’analisi, in base a circostanze storico-sociali da studiarsi concretamente caso per caso. Non cogliendo la struttura analitica ed il metodo di analisi della teoria classica, Mandler non vede così che in Sraffa non si ha alcuna indeterminatezza dei prezzi normali o naturali delle merci, nè che tale risultato può aversi, ed è raggiunto da Sraffa, senza ricorrere ad alcuna determinazione della distribuzione in termini di domanda e offerta. Keywords: Rationalizability, Uncovered Set, Intransitive Choice. J.E.L. Classification: D01. Contact information: Address : department of economics, queen Mary, University of London, Mile End Road, London E1 4NS, United Kingdom, E-mail: [email protected], Phone Uk: 44-(0) 20-7882-7798

117

Uncovered Set Choice Rule

Michele Lombardi

Extended Abstract A large body of experimental findings show that choices are cyclic and context-sensitive [Camerer, (1994); Loomes et al., (1991); Tversky, (1969)]. This compelling evidence calls for alternative definition of maximising choice behaviour. I propose that a DM is always able to choose a single alternative from binary contexts. When called upon to make a decision from larger feasible sets, the choosable alternative x has the property to dominate every other y in the set either directly (x is chosen over y) or in two pairwise comparisons (it exists a third alternative z such that x is chosen over z which in turn is chosen over y - indirect dominance of x over y). I dub such procedural rule uncovered set rule. This choice rule `rationalisesʹ the choice function if it elicits the alternatives specified by the choice function, for any feasible choice set. When this happens the choice function is said to be an uncovered set choice rule. Of the existing literature on the suggested choice rule two works are particular relevant in this context. A full characterisation of uncovered set choice rule has been provided by means of a family of rationales, one for each feasible choice situation [Duggan, 1997]. Yet, using a tournament it has been shown that the uncovered set choice rule is the least choice rule obeying axioms relating choices across tournaments and choices across sets [Moulin, 1986]. By using only axioms relating decisions across situations I axiomatise the choice to coincide with the uncovered set of a fixed tournament. This notion of rationality explains not only cyclical and context dependent choices observed in practice, but also provides testable restrictions on observable choice behaviour. Keywords: Rationalizability, Uncovered Set, Intransitive Choice. J.E.L. Classification: D01.

118

SESSIONE AD INVITI

Coordinatori : Elsa FORNERO e Giorgio LUGHINI Relazioni: • Contratti e mercati: quando l’economia sposa la storia: Maristella Botticini • Crescita, istituzioni, distribuzione: Francesco Caselli • Partecipazione e mercato del lavoro sommerso: Pietro Garibaldi • Commercio internazionale e localizzazione geografica: Gianmarco I.P. Ottaviano • Consumo e disuguaglianza: Luigi Pistaferri

119

Contratti e mercati: quando l’economia sposa la storia

Maristella Botticini Dipartimento di Economia e Collegio Carlo Alberto, Università di Torino

In questo lavoro si illustra come il “matrimonio” tra l’economia e la storia possa arricchire entrambe le discipline. Nella prima parte del lavoro, Norme sociali e shock demografici: il mercato matrimoniale e i contratti di dote in Toscana, 1250-1450, è lo storico che chiede all’economista un modello che spieghi i trend interessanti illustrati dai dati storici. Nella seconda parte del lavoro, Mercati matrimoniali ed esternalità: modelli teorici ed analisi empirica, è l’economista che chiede allo storico dati per sottoporre a verifica empirica un modello economico. Norme sociali e shock demografici: il mercato matrimoniale e i contratti di dote in Toscana, 1250-1450 Il punto di partenza di questo lavoro è l’analisi quantitativa di migliaia di contratti di dote e testamenti conservati presso l’Archivio di Stato di Firenze che consentono di studiare il “mercato” matrimoniale e i trasferimenti di ricchezza tra generazioni a Firenze e nel suo contado dal 1250 al 1450. Il puzzle da spiegare è il seguente: pur avendo subito lo stesso shock demografico (la peste del 1348 e successivi episodi di peste), la città e il contado di Firenze reagiscono in modo diverso per quanto concerne il mercato matrimoniale e i trasferimenti di ricchezza da genitori a figli? Cioè, perché i valori delle doti (che sono simultaneamente trasferimenti di ricchezza inter vivos dai genitori alle figlie che si sposano, e “prezzi” dei mariti nel mercato matrimoniale) nella città di Firenze e nel suo contado mostrano tendenze molto diverse nonostante lo shock demografico sia stato simile? ‘effetto immediato della peste del 1348 è di avere creato uno shock negativo all’offerta di lavoro, con la conseguenza di far aumentare significativamente i salari reali sia dei lavoratori skilled che unskilled nei mercati del lavoro urbano e rurale. Salari più alti avrebbero permesso sia alle famiglie cittadine che a quelle del contado di elargire doti più grandi alle figlie. Eppure i dati indicano che solo le famiglie urbane aumentano in modo significativo le doti delle proprie figlie, mentre i valori delle doti nel contado rimangono sostanzialmente invariati per quasi due secoli. Per spiegare questo puzzle, viene in aiuto il modello di Cole, Mailath, e Postlewaite (JPE 1993) sul ruolo delle norme sociali nel comportamento di risparmio e di trasferimenti intergenerazionali. Considerando due economie identiche dal punto di vista delle preferenze, della tecnologia e delle dotazioni, ma che differiscono nella norma sociale che regola il matching nel mercato matrimoniale, il loro modello predice che, nelle economie con matching di tipo wealth-is-status, le famiglie risparmiano di più e trasferiscono più ricchezza ai figli rispetto alle economie con matching di tipo aristocratico (dove cioè i figli ereditano lo status dei genitori).

120

Applicato ai dati toscani sulle doti, questo modello aiuta a spiegare il puzzle descritto sopra. Mentre la società urbana a Firenze si identifica con un’economia caratterizzata da matching di tipo wealth-is-status, la società rurale era ancora di tipo feudale dove lo status di un individuo era deciso alla nascita. Di conseguenza, la maggiore ricchezza delle famiglie derivante dallo shock positivo sui salari a seguito della peste, si traduceva in maggiori trasferimenti di ricchezza dai genitori alle figlie (e figli) nella città ma non nel contado di Firenze. Mercati matrimoniali ed esternalità: modelli teorici ed analisi empirica A partire dal lavoro di Mortensen (1988), gli economisti hanno utilizzato search frictions e sequential search per modellare il mercato matrimoniale. Il lavoro di Mortensen suggerisce anche la possibilità di una thick market externality, ossia di rendimenti di scala crescenti (IRS) nel mercato matrimoniale: un numero maggiore di partecipanti in cerca di partners nel mercato matrimoniale farebbe aumentare il tasso di nuzialità. Sono grata ad Onorato Castellino per i preziosi suggerimenti e commenti a questo lavoro. Nella letteratura teorica, IRS è un’ipotesi usata di frequente, ad esempio, per motivare l’esistenza di equilibri multipli nei tassi di nuzialità e di divorzio. In alternativa, si può assumere l’ipotesi di rendimenti di scala costanti (CRS), nel qual caso si ipotizza che il tasso di nuzialità non dipenda dalla dimensione del mercato matrimoniale, oppure l’ipotesi di rendimenti di scala decrescenti (DRS), nel qual caso il tasso di nuzialità diminuisce all’aumentare del numero di partecipanti in cerca di partners nel mercato matrimoniale. Nella letteratura empirica, gli studiosi hanno iniziato a studiare quale di queste tre ipotesi caratterizzi i mercati matrimoniali nella realtà. Sulla scia dei lavori che sottopongono a verifica empirica l’ipotesi di agglomeration effects o thick market externalities nel mercato del lavoro, gli economisti che studiano il mercato matrimoniale sottopongono a verifica empirica l’ipotesi di IRS regredendo il tasso di nuzialità in una città sulla dimensione del mercato matrimoniale in quella città. Il coefficiente di questa variabile indicherebbe se il mercato matrimoniale è caratterizzato da IRS, CRS, o DRS. Purtroppo questo tipo di regressioni ha un ben noto problema---quello della endogenità della variabile esplicativa. In altre parole, se gli individui che vogliono trovare un partner e sposarsi, scelgono di migrare nelle città pensando che sia più facile trovare un partner, la variabile indipendente (= dimensione della popolazione in età da matrimonio nelle città) è correlata con il termine di errore della regressione, producendo stime distorte dei coefficienti. Ci sono molti studi che confermano che gli individui migrano nelle città per accedere a un miglior mercato matrimoniale. In questo lavoro (scritto in collaborazione con Aloysius Siow), stimiamo il tipo di rendimenti di scala nel mercato matrimoniale utilizzando lo stesso approccio seguito nella letteratura ma tenendo conto e risolvendo il problema della endogenità. Ecco dove i dati storici si rivelano un prezioso alleato per aiutare l’economista. I dati che utilizziamo per sottoporre a verifica empirica le ipotesi di IRS, CRS, o DRS provengono da tre società ed economie tra le più diverse quanto a caratteristiche

121

geografiche, economiche, e culturali, per di più situate in epoche storiche alquanto distanti. La prima società che consideriamo è la Toscana all’inizio del Rinascimento che per due ragioni si presta ad aiutare l’economista nel sottoporre a verifica empirica l’ipotesi di IRS, CRS o DRS. In primo luogo, grazie al Catasto di Firenze del 1427, l’economista ha a disposizione una considerevole quantità di dati economici e demografici dettagliati su circa 60.000 famiglie (o 260.000 individui) toscane. In secondo luogo, dato che nella Toscana medievale e rinascimentale le figlie si trasferivano nella famiglia del marito una volta sposate, e gli uomini non migravano nelle città per trovare moglie, l’economista può ragionevolmente ipotizzare che il problema di endogenità non esiste. La stessa argomentazione vale per la seconda società che prendiamo in considerazione, la Cina descritta nel censimento del 1982. Date le leggi restrittive sulla mobilità interna in Cina, si può ragionevolmente escludere che le persone migrino verso le città alla ricerca di un partner matrimoniale, e dunque, anche per il mercato matrimoniale in Cina, il problema della endogenità descritto sopra non ci sarebbe. Questo problema esiste invece per gli Stati Uniti descritti nel censimento del 2000. E’ un dato di fatto che negli Stati Uniti le persone migrino verso le città in cerca di un miglior mercato matrimoniale. Per risolvere questo problema di endogenità, utilizziamo un approccio con variabili strumentali (descritto in dettaglio nel lavoro). Il risultato principale è che i dati delle tre economie prese in considerazione non offrono appoggio all’ipotesi di rendimenti di scala crescenti (IRS), mentre non possiamo respingere l’ipotesi di rendimenti di scala costanti (CRS). I risultati sono coerenti tra loro e robusti a varie tecniche econometriche. L’implicazione del nostro lavoro è che gli economisti che studiano il mercato matrimoniale dovrebbero utilizzare modelli che ipotizzano rendimenti di scala costanti (CRS), questa sembrando essere l’ipotesi che meglio rappresenta i mercati matrimoniali nella realtà.

122

Crescita, Istituzioni, Distribuzione

Francesco Caselli London School of Economics and Political Science

Sintesi

There are enormous differences in output per worker across countries, and most of this difference is due to differences in aggregate efficiency, or Total Factor Productivity (TFP). There are many reasons for differences in TFP, but this lecture focuses on recent empirical and theoretical developments that highlight the role of microeconomic misallocation. As an illustrative example I use the case of family firms, and argue that a high incidence of family capitalism is likely a failure of meritocracy. I also briefly discuss the economics and politics of reforms that may have an impact on the incidence of misallocation.

123

Labour Force Participation, Unemployment and Shadow Activity

Pietro Garibaldi Università di Torino e Collegio Carlo Alberto

L’analisi macroeconomica dei mercati del lavoro “imperfetti” si è tradizionalmente concentrata sullo studio della disoccupazione. L’approccio macroeconomico di riferimento, il cosiddetto approccio dei flussi o approccio di “matching” al mercato del lavoro, ha studiato le determinanti della disoccupazione di equilibrio attraverso l’analisi dei flussi da e verso l’occupazione e la disoccupazione. Nei modelli di “matching”, le frizioni sul mercato del lavoro rendono lento e incerto il processo di incontro tra lavoratori e posti vacanti, generando una “quasi rendita” per i posti di lavoro occupati. I contributi degli anni ottanta si sono concentrati sul processo di creazione di lavoro, a cui si associa il flusso di lavoratori tra la disoccupazione e l’occupazione (Pissarides, 1990). Negli anni novanta, il modello è stato arricchito per analizzare la distruzione di lavoro, e i flussi dall’occupazione alla disoccupazione. (Mortensen and Pissarides, 1994) In tutta questa letteratura, tuttavia, l’analisi del mercato del lavoro considera esogenamente data la dimensione della forza di lavoro, divisa in occupazione e disoccuapazione. Empiricamente, la popolazione in età lavorativa è però classificata in tre distinti stati. Oltre ai “disoccupati” e agli “occupati”, esistono individui “fuori dalla forza lavoro” (o “inattivi”). La differenza tra i disoccupati e individui fuori dalla forza lavoro è principalmente legata al fatto che i primi sono attivamente in cerca di lavoro mentre i secondo non lavorano e non ne cercano uno. Empiricamente, i flussi da e verso la disoccupazione appaiono quantitativamente significativi. In ogni trimestre, i flussi dall’occupazione alla disoccupazione sono tanto grandi quanto i flussi dall’occupazione all’inattività, sia negli Stati Uniti che in Europa. Relativamente all’Italia, dove la disoccupazione è arrivata ormai al 7 percento (scendendo sotto il 4 percento nelle regioni settentrionali), il numero di occupati sulla popolazione in età lavorativa è ancora tra i più bassi tra i paesi OCSE (con un livello pari al 58 percento nel 2006). E’ quindi evidente la necessità di studiare, a livello macroeconomico, i confini tra disoccupazione e inattività. Nella macroeconomia del lavoro degli anni novanta, lo studio delle determinanti della forza lavoro ha ricevuto notevole attenzione. Garibaldi e Wassmer (2004, 2005), in una serie di contributi, hanno introdotto “la produzione domestica” nei modelli di matching, e hanno proposto un modello di equilibrio del mercato del lavoro con flussi e stock tra occupazione, disoccupazione e inattività. Si ipotizza che gli individui possano sia produrre sul mercato del lavoro sia specializzarsi in attività domestiche. In presenza di eterogeneità nella produttività domestica, la forza lavoro si divide endogenamente tra occupati, disoccupati e individui fuori dalla forza lavoro. Il presente lavoro presenta un semplice modello di partecipazione endogena in mercati del lavoro imperfetti, e deriva diversi risultati. Innanzitutto determina endogenamente i confini tra occupazione, disoccupazione e inattività. In aggiunta, mostra come gli individui “fuori dalla forza lavoro” possano essere distinti tra individui “attached” e “non attahced”, dove i primi sono individui che non cercano un lavoro ma ne accetterebbero uno se gli fosse loro offerto. I lavoratori “non attached”, viceversa, rifiuterebbero un lavoro

124

anche se loro offerto. Quest’ultima categoria, che emerge in modo naturale dal modello, appare perfettamente in linea con le più recenti determinanti empiriche della disoccupazione. Diversi studi, (Jones and Riddel, 1999, 2005 Brandolini et al. 2006) hanno infatti mostrato come gi individui non attached sono ben presenti nelle statistiche delle forze lavoro, e la loro considerazione può determinare un cambiamento delle stime della disoccupazione fino a 2-3 punti percentuali. In termini di “policy” i modelli con forza di lavoro endogena permettono anche di studiare in modo più “completo” ed empiricamente rilevante le istituzioni del mercato del lavoro, quali la tassazione su lavoro e i sussidi di disoccupazione. Nel caso dell’Italia, ma anche in molti paesi dell’Europa meridionale e nei paesi in via di sviluppo, la bassa partecipazione nelle statistiche “ufficiali” è spesso associata a un elevata attività di lavoro sommerso. Tecnicamente, l’attività sommersa non è illegale, ma è sommersa in quanto sfugge alla tassazione e alla regolamentazione del mercato del lavoro. Il modello proposto può essere esteso per considerare l’occupazione sommersa, in modo da studiare i confini e le determinanti dell’occupazione regolare, della disoccupazione, e dell’occupazione sommersa in un mercato imperfetto, in linea con quanto recentemente proposto da Boeri e Garibaldi (2006). Dal punto di vista della domanda di lavoro, le imprese creano il numero ottimale di posti di lavoro regolari e sommersi attraverso un meccanismo simile a quello di una decisione ottimale di evasione fiscale. Dal punto di vista dell’offerta di lavoro, lavoratori eterogenei si autoselezionano nel settore legale e sommerso, con lavoratori maggiormente produttivi che entrano nel settore legale. Questo tipo di autoselezione appare coerente con l’evidenza empirica sull’occupazione sommersa. Il modello predice anche che la disoccupazione e l’occupazione sommersa siano due facce della stessa medaglia, nel senso che rispondono in modo simile a variazioni macroeconomiche. Il modello è anche coerente con il fatto che l’economia sommersa sia aumentata negli ultimi 20 anni nonostante la disponibilità di tecnologie informatiche renda più semplice individuare i lavoratori sommersi. L’evidenza empirica sul Brasile e sull’Italia appare coerente con le previsione empiriche del modello. Bibliografia Brandolini, A, Cipollone P., Viviano: Doe the ILO capture all Unemployment? Journal of the European Economic Association, 2006 MIT Press Boeri, T. and Garibaldi, P. (2006) Shadow Sorting, NBER Macroeconomic Annual-ISOM Conference, MIT Press Garibaldi, P. and Wassmer, E.: Equilibrium Search Unemployment, Endogenous Participation and Labor Market Flows, Journal of the European Economic, Association MIT Press, vol. 3(4), pages 851-882 Garibaldi, P. and Wassmer, E.: Raising Female Employment: Reflections and Policy Tools, joint with Etienne Wasmer, Journal of the European Economic Association MIT Press, vol. 2(2), pages 320-330 Jones, S.R.G. and W.C. Riddell (1999): The Measurement of Unemployment: An Empirical Approach, Econometrica, 67, 147-61.

125

Jones, S.R.G. and W.C. Riddel (2005): Employment and Non-Employment: Heterogeneities in Labor Market States, mimeo University of British Columbia Mortensen, D. and Pissarides, C.A.: Job Creation and Job Destruction in the Theory of Unemployment, Review of Economic Studies Pissarides, C.A. (1990) Equilibrium Unemployment Theory, Basil Blackwell, 1st edition

126

Commercio internazionale e localizzazione geografica*

Gianmarco I.P. Ottaviano Università di Bologna

‘New trade theory’ (henceforth, NTT) developed rapidly from the late 1970s on with the aim of explaining a phenomenon that could not adequately be dealt with in the standard perfectly competitive setting: a large share of world trade takes place between countries with relatively similar technologies and factor endowments. Such trade is not driven by differences between countries (as Ricardian and Heckscher-Ohlin theories would predict) but rather, it seems, by their similarity. Various theoretical explanations have been put forward and all of them rely to varying degrees on imperfectly competitive market structures. The first main strand of NTT gives rise to a class of models characterized by monopolistic competition, firm-level scale economies, and differentiated products. In these models, each firm is assumed to produce a single variety in one location only, because of scale economies, and trade occurs because consumers in each locale value variety and purchase a fully diversified consumption bundle. The second main strand of NTT builds on oligopolistic competition to explain how firms’ strategic interdependence may even generate trade in homogeneous goods between identical countries. Countries engage in intra-industry trade because, in the presence of trade costs, firms face a higher demand elasticity in their export market and ‘dump’ their product into that market. One fundamental aspect distinguishing NTT from ‘traditional’ Ricardian and Heckscher-Ohlin theories is that firms now become important players that have to make several strategic choices. First, and foremost, firms face the key decision of price-setting. While the early literature has largely wrestled with this fundamental problem of market structure, more recent extentions of NTT focus on firms that face two additional decisions: where to locate their production activity (the ‘locational choice’ of economic geography) and how to serve foreign markets (the ‘organizational choice’ of the multinational). The latest advances in NTT further enrich the already complex picture by allowing for firm heterogeneity and by introducing a new approach to the analysis of organizational choices based on contract theory. Given the inherent richness of the above mentioned recent extensions, different models focus on different aspects to investigate the impacts of trade liberalization and the gains from trade. Our aim is to assess the current state-of-the-art of NTT by distilling its main insights on firms’ responses to globalization and their implications for the reallocation of resources across firms and countries within a single unified framework. In particular, we will bring theory into life through the numerical implementation of a comprehensive theoretical framework calibrated on European data. Doing so should provide a comprehensive background for empirical investigations and future theoretical research. Following an incremental approach, we briefly survey the existing literature on NTT, ‘new economic geography’, multinational firms, and firm heterogeneity. For the sake of

* La relazione è basata sul saggio “Industry Reallocations in a Globalizing Economy” di Kristian Behrens, Gianmarco I.P. Ottaviano e Giordano Mion, CORE, 2006.

127

conciseness, we do not review the literature on firms’ organizational choices based on contract theory. Then we proposes a simple two-country partial equilibrium model that highlights the key features of NTT while by-passing most of its complexities. Both exports and foreign direct investment (henceforth, FDI) are considered. While this simple model is a useful pedagogical tool, it falls short of being an appealing framework in which to assess the economic impacts and the welfare implications of complex real world trade reforms, or on which to base empirical work. To overcome these limitations, we extend the simple model by allowing for many countries, many firms, and endogenous firm heterogeneity. The result is a rich set of predictions on the effects of trade liberalization in terms of industry performance measures. We finally introduce multinationals and offer a first attempt at quantifying the impacts of trade reforms in the presence of heterogeneous multinational firms. The main results of NTT highlight the fundamental roles of production costs (‘cost-saving attraction’), market size (‘market-seeking attraction’), and access to other markets (‘accessibility’). In particular, trade liberalization induces a reallocation of resources from less to more productive firms (‘selection’), from smaller to larger countries (‘attraction’) and from outsiders to insiders in preferential trade agreements (‘accessibility’). This delivers long-run efficiency gains to liberalizing countries through selection among heterogeneous firms, which eventually leads to higher average productivity, lower average prices, larger average firm size, higher profits, richer product variety and lower markups. At the same time, it generates tensions between prospective short-run winners (e.g., more efficient firms, larger and more developed countries, larger and more developed regions within countries, insiders in preferential trade agreements) and prospective short-run losers (e.g., less efficient firms, smaller and less developed countries, smaller and less developed regions within countries, outsiders in preferential trade agreements).

128

Consumption inequality and partial insurance*

Luigi Pistaferri Stanford University

The goal of this paper is to expand our knowledge of changes in the cross-sectional distribution of consumption across US households. There has been extensive work documenting changes in the household and individual wage and income distributions over the 1980s and 1990s, but relatively little work done on the corresponding changes in the consumption distribution. Recently, some authors have noted that consumption inequality has not increased to the same extent as income inequality (see Krueger and Perri, 2003). Under at least some interpretations, this has been taken to imply that inequality has not actually increased in the sense that should be most relevant to welfare. Our paper seeks a better understanding of the extent to which consumption inequality has changed, and intends to shed light on alternative possible interpretations of the change (or lack of greater change) that has been observed. We start the paper by presenting basic facts about consumption and income inequality. Following a large literature, we decompose income into transitory (short-run) and permanent (long-run) components, and exclude durable goods from our baseline definition of consumption. Our data combine information from the Panel Study of Income Dynamics (PSID) and the Consumer Expenditure Survey (CEX) to document a number of key findings. We find a strong growth in permanent income shocks during the early 1980s. The variance of permanent shocks thereafter levels off. The variance of transitory shocks increases only later in the period of observation. The variance of consumption displays a strong growth in the early 1980s and then it flats out. These trends are similar to those found by Moffitt and Gottschalk (1995) and others. We next provide a framework that can be used to interpret these basic facts. If changes to income are reflected one-to-one into changes in consumption, then consumption inequality is the mirror image of income inequality and welfare differences are moot. Thus the need of a general dynamic framework in which to understand how consumption responds to different types of income shocks. Economists have proposed models that differ in their predictions regarding such response. Under complete markets agents can sign contingent contracts providing full insurance of consumption in the face of idiosyncratic shocks to income. Moral hazard and asymmetric information, however, make these contracts hard to implement, and in fact they are rarely observed in reality. Formal tests of the complete markets hypothesis have often found that the null hypothesis of full consumption insurance is rejected. In the textbook permanent income hypothesis the only mechanism available to agents to smooth income shocks is personal savings. The main idea is that people attempt to keep the expected marginal utility of consumption stable over time. Since insurance markets for income fluctuations are assumed to be absent, the marginal utility of consumption is not

* con Richard Blundell e Ian Preston.

129

stabilized across states. If income is shifted by permanent and transitory shocks, self-insurance through borrowing and saving may allow intertemporal consumption smoothing against the latter but not against the former. Models that feature complete markets and those that allow for just personal savings as a smoothing mechanism are clearly extreme characterization of individual behavior and of the economic environment faced by the consumers. The framework we adopt in this paper to explain basic facts about consumption inequality is premised on the existence of some, but not necessarily full, insurance and consider the importance of distinguishing between transitory and permanent income shocks and their separate impact on consumption. This is an important distinction, as we might expect to uncover less insurance for more persistent shocks. This point has been also emphasized in the recent wave of models with limited commitment or moral hazard with hidden savings. We use the term partial insurance to denote smoothing devices other than credit markets for borrowing and saving. There is scattered evidence on the role played by such devices on household consumption While we do not take a precise stand on the mechanisms (other than savings) that are available to smooth idiosyncratic shocks to income, we emphasize that our evidence can be used to uncover whether some of these mechanisms are actually at work, how important they are quantitatively, and how they differ across households and over time. The framework we propose is inherently dynamic. It requires in principle good quality longitudinal data on household consumption and income. While there are large panel data sets that track wages and incomes for households over time, the same is not true for broad measures of consumption. The PSID contains longitudinal income data but the information on consumption is scanty (limited to food and few more items). Our strategy is to impute consumption to all PSID households combining PSID data with consumption data from repeated CEX cross-sections. We review the conditions that make this procedure reliable and show that it is able to reproduce remarkably well the trends in the consumption distribution. In the last part of the paper we disaggregate the data and try to understand whether different population groups have experienced different changes in consumption inequality, and what mechanisms (institutions, labor market, credit market, etc.) are behind the estimated changes. This will help us painting a general picture of the time-series and cross-sectional evolution of consumption inequality in the US. It is also important to understand to what extent changes in social insurance systems affect smoothing abilities, and the consequences of this for private saving behavior.

131

INDICE

Le relazioni non presenti nel libretto potranno essere richieste alla segreteria SIE PROGRAMMA Pag. 7 Lezione: Francesco GIAVAZZI “ 15

SINTESI DELLE RELAZIONI E DELLE COMUNICAZIONI SESSIONE LIBERA - Macro Internazionale “ 18 Coordinatore: Riccardo FIORENTINI Relazioni:

• Euro Corporate Bonds Risk Factors: Carolina Castagnetti e Eduardo Rossi “ 19 • International Reserve Glut: it is for Real?: Giulio Cifarelli e Giovanna

Paladino “ 22 • What is Global Excess Liquidity, and does it Matter?: Rasmus Rüffer e Livio

Stracca “ 24 SESSIONE LIBERA - Internazionale Reale “ 26 Coordinatore: Luca ZARRI Relazioni:

• On Some Effects of International Fragmentation of Production on Comparative Advantages, Trade Flows, and the income of Countries: Salvatore Baldone, Fabio Sdogati e Lucia Tajoli “ 27

• Le misure dell’impulso del commercio estero alla crescita: quanto conta l’internazionalizzazione della produzione?: Emanuele Breda, Rita Cappariello e Roberta Zizza “ 28

• International Outsourcing and Productivity in Italian Manufacturing: Alessia Lo Turco “ 32

132

SESSIONE LIBERA - Mercato del lavoro e Istruzione Pag. 35 Coordinatore: Martina MENON Relazioni:

• The Generation Gap: an Analysis of the Decline in the Relative Earnings of Young Male Workers in Italy: Alfonso Rosolia e Roberto Torrini “ 36

• Making the Italian Labour Market More Flexible: an Evaluation of the Treu Reform: Dario Sciulli “ 39

• Entry Regulations and Labour Market Outcomes: Evidence from the Italian Retail Trade Sector: Eliana Viviano “ 42

SESSIONE LIBERA - Macroeconomia “ 44 Coordinatore: Nicola PAVONI Relazioni:

• Equilibrium Existence and Policy Neutrality in Static LQ Games: Nicola Acocella e Giovanni Di Bartolomeo “ 45

• Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime: Barbara Annicchiarico, Nicola Giammarioli e Alessandro Piergallini “ 48

• Determinants of Fiscal Policies in the Euro Area: Roberto Golinelli e Sandro Momigliano “ 50

SESSIONE LIBERA - Crescita “ 53 Coordinatore: Giam Pietro CIPRIANI Relazioni:

• Testing for Country Heterogeneity in Growth Models Using a Finite Mixture Approach: Marco Alfò, Giovanni Trovato e Robert J. Waldmann “ 54

• A Longitudinal Analysis of Venture Capital Financing and the Growth of New Technology-based Firm the Role of Investors’ Typology: Fabio Bertoni, Massimo G. Colombo e Luca Grilli “ 56

• How Do Output Growth Rate Distributions Look Like? Some Time-Series Evidence on OECD Countries: Giorgio Fagiolo, Mauro Napoletano e Andrea Roventini “ 58

• Convergence Across Italian Regions and the Role of Technological Catch-up: Marco Maffezzoli “ 61

133

SESSIONE LIBERA - Industriale Pag. 63 Coordinatore: Angelo ZAGO Relazioni:

• Partial Regulation in Vertically Differentiated Industries: Angela S. Bergantino, Etienne Billette De Villemeur e Annalisa Vinella “ 64

• Restructuring Public Transit Systems: Evidence on Cost Properties and Optimal Network Configuration from Medium and Large-Sized Companies: Carlo Cambini, Massimiliano Piacenza e Davide Vannoni “ 67

• Mixed Duopoly, Privatization and the Shadow Cost of Public Funds: Exogenous and Endogenous Timing: Carlo Capuano e Giuseppe De Feo “ 69

• L’equilibrio sul campo quando i club hanno obiettivi differenti: l’esperienza recente della serie A di calcio: Nicola Giocoli “ 72

SESSIONE LIBERA - Internazionale Reale “ 75 Coordinatore: Luca ZARRI Relazioni:

• The Evolution of World Trade and the Italian “Anomaly”: a New Look: Michele Di Maio e Federico Tamagni “ 76

• On the Robustness of Robustness Checks of the Environmental Kuznets Curve: Marzio Galeotti, Matteo Manera e Alessandro Lanza “ 78

• Does Antidumping Use Contribute to Trade Liberalization? An Empirical Analysis: Michael O. Moore e Maurizio Zanardi “ 80

SESSIONE LIBERA - Mercato del lavoro e Istruzione “ 82 Coordinatore: Martina MENON Relazioni:

• Scholarships or Student Loans?: Alessandro Cigno e Annalisa Leporini “ 83 • The Effect of Education on Youth Mortality: Piero Cipollone, Debora

Radicchia e Alfonso Rosolia “ 84 • Be as Careful of the Books you Read as of the Company you Keep. Evidence on

Peer Effects in Educational Choices: Giacomo De Giorgi, Michele Pellizzari e Silvia Redaelli “ 87

134

SESSIONE LIBERA - Macroeconomia Pag. 89

Coordinatore: Nicola PAVONI Relazioni:

• Taylor Rule under Rule-of-Thumb Consumers and External Habits: an International Comparison: Giovanni Di Bartolomeo, Lorenza Rossi e Massimiliano Pancioni “ 90

• Mortgage Lending and the Choice between Fixed and Adjustable Rate: Monica Paiella e Alberto Franco Pozzolo “ 93

• Stochastic Discount Factor Volatility and the Coskewness Puzzle in the Cross-Section of Excess Returns: Valerio Potì

SESSIONE LIBERA - Crescita “ 95 Coordinatore: Giam Pietro CIPRIANI Relazioni:

• Collective Norms in Basic Research and Economic Growth: Maria Rosaria Carillo e Erasmo Papagni “ 96

• Is Europe Becoming a Knowledge-Driven Economy? Evidence from EU Developed Regions: Alessandro Sterlacchini e Francesco Venturini “ 97

• The Long-Run Impact of ICT: Francesco Venturini “ 99 SESSIONE LIBERA - Industriale “ 101 Coordinatore: Angelo ZAGO Relazioni:

• The Underlying Internal Learning Processes of Incremental and Radical Innovations: An Empirical Analysis of the Reggio Emilia Industrial Districts: Paolo Pini e Grazia D. Santangelo “ 102

• Political Economy of Mass Media: Public Good, News and Voting Behaviour: Cosimo Scagliusi “ 104

• Complementary between Heterogeneous Human Capital and R&D: can Job-Training Avoid Low Development Traps?: Sergio Scicchitano “ 106

135

SESSIONE LIBERA - Teoria Pag. 110 Coordinatore: Eugenio PELUSO Relazioni:

• Effort Provision and Information Acquisition in Different Organizational Forms: Maria De Paola e Vincenzo Scoppa “ 111

• Optimal Information Releasing in Multidimensional Public Procurement: Nicola Doni “ 113

• Su Mandler e l’indeterminatezza sraffiana: Saverio Maria Fratini e Enrico Sergio Levriero “ 115

• Uncovered Set Choice Rule: Michele Lombardi “ 117 SESSIONE AD INVITI “ 118 Coordinatori: Elsa FORNERO e Giorgio LUNGHINI

• Contratti e mercati: quando l’economia sposa la storia: Maristella Botticini “ 119 • Crescita, istituzioni, distribuzione: Francesco Caselli “ 122 • Partecipazione e mercato del lavoro sommerso: Pietro Garibaldi “ 123 • Commercio internazionale e localizzazione geografica: Gianmarco I.P.

Ottaviano “ 126 • Consumo e disuguaglianza: Luigi Pistaferri “ 128

136

137

con il patrocinio e il contributo di