Ricerca dei benchmark per la valutazione

Il concetto di Struttura Istituzionale della Produzione (Coase, 1991), che orienta le argomentazioni che seguono, è ontologicamente incompatibile con i fondamentali dell’economia standard e, dunque, con l’impostazione dei progetti di ricerca che possono essere formulati partendo dalle impostazioni tradizionali.

Nel corso dell’ultimo quarto di secolo l’economia industriale ha trasmigrato i suoi antichi paradigmi grazie alla sintesi neoclassica di Williamson (1991a; 1991b; 1998; 2002) basata sulla proposta metodologica di utilizzare le transazioni come unità d’analisi: un passaggio epistemologico davvero importante nell’ontologia dell’individualismo metodologico, che rappresenta una premessa culturalmente gradita al mainstream, perché pienamente coerente con la premessa di una economia ideale di puro scambio.

La tradizionale impostazione dell’economia industriale struttura-condotta-performance, fondata sull’unità di analisi “impresa”, ha così potuto evolversi all’interno del nuovo paradigma transazioni-contratti-istituzioni basato su una visione più generale delle scelte allocative e di consumo: l’esercizio razionale dei diritti di proprietà individuali sulle risorse. Naturalmente, i fastidiosi problemi logici e i paradossi ereditati della vecchia teoria della produzione – rappresentazione delle tecniche (non offensiva dell’intelligenza degli ingegneri), natura dei rendimenti, definizione dei confini settoriali, spiegazione della struttura dimensionale delle imprese – restano ancora tutti temi irrisolti. Il vantaggio è che, nella nuova impostazione, quei problemi “strutturali” non impattano più direttamente sui fondamentali del ragionamento economico: rispetto al puro scambio rappresentano, infatti, problemi operativi ad un più basso livello di astrazione e, dunque, possono essere accantonati nella formulazione delle ipotesi di base.

In ogni caso, qualunque sia il livello di astrazione, uno dei criteri di razionalità – implicito ma imprescindibile – è che l’esercizio dei diritti di proprietà abbia comunque come principale obiettivo la ricostituzione della fertilità economica della risorsa stessa, precondizione necessaria alla sua valorizzazione economica nel corso del tempo e dunque, in ultima istanza, che l’impiego delle risorse sia sostenibile.

L’indicazione coasiana – seguita nell’impostazione del presente lavoro di valutazione – è basata invece su un diverso paradigma, con una diversa logica di casualità: istituzioni-contratti-transazioni, inversa e antisimmetrica rispetto a quella su cui basa il mainstream williamsoniano[1]. È proprio su tale criterio che si costruirà lo schema valutativo, utilizzato nella lettura dei dati.

Efficienza paretiana vs. sostenibilità[modifica | modifica wikitesto]

L’importanza della ricerca e della verifica dei benchmark di valutazione sono chiare: se non solo il valore economico, ma il significato stesso di “risorsa” è legata alle regole istituzionali del suo utilizzo (Coase, 1987, p.155), come sarà logicamente possibile ipotizzare “tecniche date” con cui valutare l’efficienza, o la direzione di un sentiero di sviluppo (da dove, verso dove). Ovvero, come potrà essere individuata una strategia ottima – definibile ex-ante – nell’esercizio dei diritti di proprietà individuali, indipendente dalle regole (mutevoli) d’impiego determinate dalla stessa azione istituzionale. Infine, l’aspetto più stringente nell’argomen­tazione che stiamo seguendo: come sarà possibile “valutare” le istituzioni e gli effetti delle loro azioni?

Nell’euristica coasiana, la proposta di valutazione delle istituzioni è legata alla “migliore” produzione ottenibile, confrontando i risultati relativi ai diversi assetti produttivi che le alternative istituzionali rendono possibili. Ad esempio, se l’articolo 18 bloccasse davvero la crescita delle imprese – ad esempio, determinando “effetti soglia”, o altre distorsioni nella scelta dimensionale ottimale – la valutazione negativa, documentata, di quella istituzione dovrebbe essere paragonata agli effetti positivi, documentabili, di un’istituzione alternativa, compresa la condizione di nessuna istituzione (ad esempio, l’eventuale abrogazione della normativa sull’artigianato). Lo stesso criterio della ricerca di un controfattuale dovrebbe essere poi impiegato per ogni istituzione che regola il mercato del Lavoro: il pacchetto Treu, la legge Biagi, la riforma Fornero, le diverse possibili regole attuative del Job Act, e tutte le molteplici normative che influenzano lo spazio economico delle imprese minori (Principe, 2003).

Inoltre, coerentemente all’impostazione coasiana, il criterio di valutazione non può essere la sola misura del prodotto, l’ammontare del PIL, o un qualunque altro indicatore di output fisico. La valutazione deve essere comunque legata alla ricerca del migliore degli esiti possibili, tra gli impieghi alternativi delle risorse, valutato anche sul piano estetico o morale (Coase, 1987, p. 154). La nostra lettura è che si debba osservare come le istituzioni economiche di riferimento trasformano il prodotto in “nuove” risorse disponibili.

In sintesi, è necessario valutare come un determinato livello di output al tempo t “diventi” risorsa/opportunità al tempo t+1. È solo attraverso questa misura intertemporale che si possono determinare i limiti nell’uso delle risorse stesse, giudicare il loro grado di contendibilità per usi alternativi e, dunque, valutare le alternative disponibili e gli eventuali obiettivi per una nuova azione istituzionale. In altri termini, la valutazione delle istituzioni coincide con l’analisi dei processi di rigenerazione/potenziamento della fertilità delle risorse determinati dalla loro azione economica: come si discuterà tra breve, non si tratta solo di una misurazione del grado di “efficienza”, ma di una valutazione di sostenibilità complessiva del life-cycle delle risorse impiegate.

La stilizzazione delle relazioni input-output secondo l’economia standard è nota e universalmente accettata: coincide con l’idea di frontiera di possibilità produttive, ovvero con una funzione di produzione aggregata (Error: Reference source not found). Questa indica tutte condizioni di massima efficienza nella relazione input-output delle risorse impiegate – come nel caso del punto B – e consente di valutare il punto A come inefficiente e C come irrilevante, perché impossibile. I punti sulla frontiera rappresenterebbero, dunque, i migliori risultati dell’impiego delle risorse private da parte degli agenti, che ci si immagina ottimizzino razionalmente obbiettivi definiti nella sfera delle scelte private (bisogni, reddito, rischio, ecc.).

Tutto il ragionamento è però basato sull’ipotesi di tecniche esogenamente date. Ma se è vero che le istituzioni definiscono la natura delle risorse, segue che tali azioni possano essere in grado di modellare attivamente, sia la tecnologia (specifico impiego delle risorse), sia il sentiero di sviluppo (possibilità di modificare i parametri dell’impiego nel corso del tempo).

Figura 1 - Rappresentazione standard della frontiera delle possibilità produttive
Ninni giov 01.png

Immaginiamo, ad esempio, che il punto B in figura rappresenti il risultato ottimale dell’impiego di un certo ammontare di risorse – impianti fotovoltaici prodotti – in grado di generare nuove risorse energetiche al tempo t+1.

Sul piano economico la classificazione, secondo i criteri standard, del bene “pannello fotovoltaico” ricade nella categoria dei beni privati[2]. Ciononostante, la politica ambientale strategica può decidere autonomamente un disegno incentivante tale da aumentare la produzione e, quindi, il parco degli impianti ad energia rinnovabile. Il risultato finale di queste azioni può essere sia il punto C, sia il punto A; ma non può essere esclusa neppure l’invarianza dei risultati e, quindi, ancora il punto B. In realtà, ciò che conta è che la frontiera tracciata in figura, non costituisce più un possibile punto di riferimento logico. Infatti, al t+1, in diretta relazione con la politica degli incentivi, sono cambiati gli standard tecnici, il parco macchine, i piani di ammortamenti del capitale, le competenze degli addetti, lo stile dei consumi, la distribuzione dei vincoli e delle opportunità nell’accesso alle risorse energetiche, ecc. L’azione istituzionale ha rimodellato la Tecnica, perché ha ridefinito la natura di numerose risorse disponibili.

In questo quadro, la sostenibilità costituisce l’unico benchmark invariante rispetto al tempo e allo spazio economico, comunque delineato. Definiamo dunque il concetto di sostenibilità come nel Quadro 1.

Quadro 1 - Definizione di Sostenibilità Economica e lemmi per la valutazione del grado di efficienza sostenibile

Definizione:

Sostenibile è un sistema in grado di riprodurre/rigenerare tutte le risorse impiegate nei processi economici che lo caratterizzano, rispettando i tempi naturali necessari alla loro rigenerazione, in modo da mantenere o aumentare le capacità delle risorse stesse.

Lemmi:

  • è sostenibile un processo/impresa che copre, o riconosce come diritti di terzi, i costi (diretti e indiretti) dell’uso di risorse necessarie alla sua attività;
  • un’azione è innovativa solo se è sostenibile, quindi se aumenta la capacità/potenzialità delle risorse che usa e se non danneggia/riduce le potenzialità di altre risorse;
  • aumentare il grado di equità distributiva di un sistema economico corrisponde ad un’azione innovativa perché migliora la capacità delle risorse, aumentando le potenzialità del sistema.
  • La possibilità di raggiungere e mantenere l’equità distributiva rappresenta una misura non distorta della resilienza del sistema.

Si definisce dunque la sostenibilità (debole) come la condizione in cui – qualunque sia l’unità d’analisi nano, micro, meso o macroeconomica – gli output O_t0 abbiano un potenziale di fertilità il più vicino possibile a quello degli input I_t0, per essere disponibili ancora come input I(t+1), nel ciclo economico successivo. Dato che, per la prima e la seconda legge della termodinamica la condizione forte O=I può essere considerata solo in modo asintotico (Georgescu-Roegen, 1971), definiamo questa possibile azione di “avvicinamento” con il simbolo , cioè I_t0 O_t0 I_t+1. In altri termini, è necessario considerare il life cycle delle risorse impiegate come misura di efficienza economica di ultima istanza.

Graficamente, tale condizione di valutazione è facilmente rappresentabile con una retta a 45° (Figura 2 ).

Figura 2 - Sostenibilità vs. "efficienza" paretiana
Ninni giov 02.png
Utilizzando ancora i punti di riferimento del grafico precedente, l’introduzione della condizione di sostenibilità permette una serie di considerazioni. La più importante di tutte è che i punti che appartengono alla frontiera delle possibilità produttive (come il punto B) – e che dovrebbero rappresentare il miglior esito delle scelte allocative private – non rappresentano né condizioni necessarie, e neppure sufficienti per l’efficienza sostenibile: ad esempio, il punto A ha costi sociali complessivi più bassi, del punto B ed è, quindi, preferibile. Inoltre, il punto C può essere raggiunto se l’obiettivo strategico è un miglioramento continuo del life-cycle delle risorse effettivamente impiegate, ma non segue affatto che il miglior punto di partenza sia B, e non A, dato il maggior “spreco” relativo di risorse che B determina al tempo t0.

È importante aggiungere che questa rappresentazione è perfettamente coerente con la discussione coasiana sui costi sociali. Come è stato dimostrato, le esternalità non esistono perché corrispondono sempre ad un uso specifico delle risorse a cui si associa un output privatamente disponibile e uno potenzialmente riproducibile, la cui mancata realizzazione rappresenta il costo sociale al tempo t0: le “esternalità” rappresentano solo un errore teorico prodotto dalla cattiva definizione degli attori istituzionali, del loro potenziale raggio di azione, delle loro possibili relazioni e, dunque, delle unità di analisi.

L’ipotesi della sostenibilità, quale criterio di valutazione di ultima istanza, si rivela un affilatissimo “rasoio di Occam” per eliminare, con un sol colpo, l’enorme quantità di ipotesi ad hoc necessarie, ad esempio, per rendere coerente e trattabile la teoria della produzione standard. Tutta la valutazione è sempre esprimibile in termini di distanza dal benchmark O=I e rende superflua ogni distinzione concettuale tra significato economico, sociale o ambientale della sostenibilità. Il processo innovativo si presenta dunque come una combinazione di innovazioni sociali e tecniche, auspicabilmente in grado di risolvere progressivamente i costi sociali dello sviluppo.

Si deve anche notare che la definizione di sostenibilità qui proposta è profondamente diversa da quella correntemente adottata, che distingue logicamente le generazioni presenti e future. Non è, infatti, possibile trattare il Tempo come se fosse fatto di contenitori stagni: il “futuro” è già oggi perché è rappresentato ­– qui e adesso – da tutti gli altri diversi da noi per età (figli, genitori, nonni) e/o per luogo e contesto istituzionale (diversi tassi di natalità, transizioni demografiche, cultura ed esperienze migratorie). È altresì importante sottolineare che la definizione proposta è la generalizzazione del concetto di “economia in stato reintegrativo”, imprescindibile punto di partenza e di riferimento teorico in tutti i modelli di equilibrio dell’economia classica.

Maggiormente utili sul piano operativo, anche ai fini del presente lavoro, sono le implicazioni contenute nei quattro lemmi di corredo al concetto. Il primo – la corretta computazione dei costi a 0-esternalità – assegna alla responsabilità sociale non solo dell’impresa, ma di tutte le istituzioni, una prospettiva teorica assai più stringente ed effettivamente strategica se fondata sulla sostenibilità. Al contrario, la responsabilità limitata nell’uso delle risorse può descrivere una effettiva scelta razionale, ma non rappresenta necessariamente anche una virtù economica. In particolare, anche all’interno delle consuete ipotesi di concorrenza, la non copertura dei costi del life-cycle si associa necessariamente ad una qualche forma di esercizio di potere monopolistico.

Il secondo lemma assegna un verso e un campo al concetto di “innovazione”, distinguendo tra cambiamento generico e innovazione se, e solo se, questa si caratterizza – non solo come un “evento/prodotto” nuovo – ma come processo orientato verso soluzioni a maggiore grado di sostenibilità.

Il terzo lemma ha come punto di riferimento ideale e come ipotesi scientifica l’idea della equità come necessità economica di lungo periodo: sia come verifica dell’effettiva sostenibilità del sentiero di sviluppo, sia come misura della condizione di esigibilità generale – per l’umanità – di quelle “conquiste” economiche limitate ora solo a gruppi ristretti della popolazione del pianeta. Un test da cui non è possibile prescindere data l’effettiva finitezza delle quantità fisica degli stock e dei giacimenti di materia disponibili[3].

L’ultimo lemma accoglie le implicazioni e gli sviluppi dell’approccio “Working Together”, cioè l’eredità del lavoro teorico ed empirico di Elinor Ostrom e del suo team di ricerca (Poteete, Janssen and Ostrom, 2010). L’idea generale è che non esistano condizioni di steady-state perché, come si è detto, può esistere B ma non la curva a cui si immagina appartenga. Quindi, non è importante solo il punto di arrivo ma la direzione dello sviluppo e, soprattutto, la capacità di tenere e migliorare le posizioni, a fronte di shock naturali ed economici che lo sviluppo stesso provoca: una società equa è anche quella che determina il pooling dei rischi e, a fronte di possibili “catastrofi” di varia natura, distribuisce gli oneri di queste in modo meno impattante, cercando di favorire la ripartenza di tutti gli attori coinvolti.[4]

Data la definizione di sostenibilità quale genuino indicatore di efficienza, cerchiamo ora di vedere come questo concetto possa essere utilizzato nella definizione e nella valutazione dei processi economici.

La struttura economica come reticolo stabile di relazioni: processi, imprese e cluster[modifica | modifica wikitesto]

La teoria classica dell’impresa mainstream è costruita su una ipostasi che segna l’intera teoria della produzione: le tecniche “date” – come nella filosofia di Plotino – rappresentano l’Uno da cui discendono l’Intelletto (le scelte razionali) e l’Anima (l’imprenditore massimizzatore del profitto) e, dunque, l’azione economica dell’impresa. La Error: Reference source not found è presentata in letteratura come la risultante macroeconomica, microfondata su strutture, comportamenti e performance, pensati sempre coerenti con il fondamentale delle tecniche date. Questo quadro concettuale viene fatto salvo, e integrato pienamente nella impostazione williamsoniana, grazie all’ipotesi chiave della “specificità” delle risorse.

Le relazioni immaginate tra l’Uno, l’Intelletto e l’Anima dovrebbero comunque dare origine a manifestazioni fenomeniche riconoscibili; ovvero essere in grado di dare spiegazione economica di quelle effettivamente osservabili sul piano empirico/statistico. In altri termini, le relazioni teoriche immaginate dovrebbero spiegare il risultato di comportamenti e azioni, tali da generare popolazioni di soggetti osservabili. Quelle popolazioni dovrebbero, a loro volta, essere rappresentabili attraverso distribuzioni statistiche generate da un processo stocastico, coerente con la teoria comportamentale proposta.

Ad esempio, il punteggio ottenuto dal lancio di due dadi si distribuisce secondo una distribuzione di probabilità nota e, quindi, l’esito di infiniti lanci è prevedibile ex-ante; quella stessa distribuzione ci consente, quindi, di fare previsioni sulla probabilità che i dadi (reali) siano stati truccati.

Nella teoria dell’impresa maggiormente condivisa, le ipotesi standard sulle tecniche e l’azione di soggetti individuali massimizzanti implicano necessariamente popolazioni d’imprese distribuite in modo normale intorno ad una dimensione ottima. È noto invece che quello che la teoria prevede non è mai congruente con le distribuzioni statistiche che si possono effettivamente adattare alle popolazioni d’imprese osservabili, a qualunque livello di aggregazione[5].

Segue una sorta di “schizofrenia” analitica: da un lato si osservano delle effettive “regolarità” statistiche – ad esempio la cosiddetta “legge di Gibrat” o la distribuzione paretiana della dimensione delle imprese – ma dall’altro lato, sul piano economico, tali regolarità rimangono nel limbo della indeterminatezza teorica e, dunque, difficilmente adottabili come benchmark affidabili. Ad esempio, se si notano nel corso del tempo importanti deviazioni dalle previsioni della legge di Gibrat e/o scostamenti nella distribuzione attesa, si è di fronte alla falsificazione delle ipotesi teoriche sul comportamento degli agenti, oppure si sono verificate importanti variazioni strutturali?

I problemi affrontati in letteratura sono noti e rimandano puntualmente alle numerose aporie della teoria dell’impresa standard: ad esempio, se quella di Gibrat fosse davvero una legge, nel lungo andare, potrebbero essere compromesse le ipotesi di concorrenza nei diversi settori. Inoltre, la natimortalità delle imprese è un fenomeno evolutivo che presenta una relazione non definita, da un lato, rispetto alla struttura di un settore osservata in un momento del tempo e, dall’altro, con il sentiero di sviluppo nel lungo periodo: ancora una volta le ipotesi di tecniche (sempre) date non consentono di fare alcuna previsione sui cambiamenti d’assetto distinguendo tra fenomeni normali da quelli patologici. Ad esempio, la massa di piccole imprese prevista nella distribuzione paretiana della dimensione, in che relazione è ai rendimenti di scala, quindi, all’efficienza relativa delle diverse unità e dunque – in ultima istanza – alle performance del settore economico nel suo complesso? Perché se misuriamo la dimensione delle imprese utilizzando tre diverse proxy – numero di addetti, valore aggiunto o fatturato – otteniamo distribuzioni diverse? Infine, dal punto di vista di questo lavoro, che distribuzione-benchmark dobbiamo utilizzare per valutare se i “dadi” delle risorse economiche sono stati lanciati da imprese taroccate?

Tutte queste domande non hanno risposta se non si possiede una teoria dell’impresa che consente di prevedere, ex-ante, la distribuzione attesa. La responsabilità quindi non è nella carenza nell’offerta di modelli statistici adeguati, ma nella scelta del modello di riferimento – coerente con una teoria dell’impresa ipotizzata – e nella domanda di verifica empirica, di quella scelta, da parte degli economisti.

L’ipotesi che seguiremo è: se le risorse sono istituzionalmente determinate e se, di conseguenza, le tecniche non sono definibili ex-ante, il passaggio teorico fondamentale non è cercare di determinare la distribuzione delle imprese partendo da un’ipotesi metafisica di “impresa” già data, quale risultato ineluttabile di scelte ottimali. È necessario invece occuparsi di cosa accade “entro i certi limiti”, da quando le risorse sono acquistate a quando il prodotto finale emerge dal processo, conto tenuto del contesto transattivo/istituzionale di riferimento (Coase, 1937 [1991]). Per illustrare nel modo più semplice quanto si afferma procediamo con un esempio numerico.

La Figura 3 stilizza un processo elementare in grado di produrre al massimo 10 unità nell’unità (torte) di tempo contrattuale di una giornata lavorativa di 8 ore. Ipotizziamo che 100€ sia l’ammontare del salario che gli accordi contrattuali tra le parti hanno stabilito come sostenibile relativamente all’attivazione, diretta ed indiretta, dei processi necessari al life-cycle del Lavoro. Infine, per semplicità, supponiamo che tutti gli altri costi fissi siano proporzionali al numero di lavoratori impiegati.

Nella figura, le parti colorate rappresentano tre diverse fasi di lavorazione – preparazione, controllo cottura, finitura – in grado di produrre l’ammontare previsto dalle tecniche impiegate nel processo. Il rapporto tra tempo di esecuzione delle fasi previste e tempo contrattuale d’impiego è di 2/3: il resto del tempo è impiegato nelle pause tecniche del ciclo (attesa dei tempi naturali di cottura). Infine, si può pensare che le tecniche adottate nel processo descrivano perfettamente il fabbisogno di fattori ma, data l’impossibilità di prevedere le circostanze in cui verrà attivato il processo, non possano determinare ex-ante l’impiego effettivo delle risorse alla loro massima intensità: questo compito è lasciato all’azione organizzativa. È importante notare che è proprio da questo snodo teorico che si muove il dibattito della teoria istituzionalista dell’impresa.

In passato, oggetti teorici congruenti a quello appena descritto sono stati variamente definiti: “processo elementare” nella terminologia di Georgescu-Roegen (1971); “interfaccia tecnologica” da Williamson (1991b, p. 188); team di risorse per Alchian e Demsetz (1972). In ogni caso, l’elemento in comune a tutte le spiegazioni è l’indicazione di una qualche forma di “indivisibilità” che assume rilevanza economica proprio per la sua natura relazionale, non decomponibile in fattori puramente tecnici o contrattuali[6].

Figura 3 - Organizzazione e costi in un processo elementare

a. Rappresentazione di un processo

b. Andamento dei costi

Ninni giov 03.png

Se ipotizziamo un’unità minima “indivisibile”, la sua struttura economica è facilmente tracciabile come l’andamento dei costi “fissi” medi del processo, funzione del grado di utilizzo effettivo delle risorse impiegate, così come appare nella parte B della figura[7].

Nella rappresentazione grafica, l’indivisibilità è stilizzata da due elementi: uno interno ai confini del processo; l’altro esterno, legato appunto alle condizioni stabilite dal contesto istituzionale. In particolare, l’indivisibilità interna è condizionata dal posizionamento orientato ed irreversibile delle fasi rispetto al tempo di durata delle operazioni previste. Sul versante esterno, agiscono invece le regole contrattuali che – ad esempio – impongono la giornata lavorativa di otto ore per un impegno standard nell’unità di tempo (normalizzato a 1 nel grafico).

Procederemo compiendo due steps: di seguito, immagineremo stabili le regole istituzionali d’impiego osservando gli effetti dell’azione organizzativa; questa ipotesi verrà poi rilasciata nel paragrafo seguente, dove si vedrà quali opzioni si aprono in seguito ad una modificazione istituzionale delle regole d’impiego. In entrambi i casi le “tecniche” utilizzate nei processi non cambieranno.

La Figura 4 riporta quattro modelli organizzativi possibili, dato il processo elementare di base. I rendimenti crescenti di scala derivano – non dalle caratteristiche date ex-ante della funzione di produzione – ma dall’azione organizzativa quando è in grado di modificare sia le modalità d’impiego, sia le attività di specializzazione e cooperazione tra “fattori”, fissando la specificità del loro utilizzo e, dunque, la loro qualità economica. I possibili e probabili mutamenti tecnologici – ad esempio in macchinario ed impiantistica – seguono incorporando, via, via, i mutamenti organizzativi e standardizzando le procedure in nuove routine e nuove soluzioni tecniche: tutto ciò appartiene, però, ad una fase logicamente successiva che può essere trascurata a questo stadio dell’analisi[8].

La Figura 5 riporta – sempre a parità di condizioni tecniche – i costi relativi dei quattro modelli organizzativi. Come è possibile notare, proprio nelle trasformazioni della divisione del lavoro nelle diverse forme organizzative si realizzano economie di scala[9]. È forse opportuno notare che i rendimenti crescenti non sono indicati dalla forma delle curve: queste riportano unicamente l’andamento perfettamente prevedibile dei costi fissi medi, determinati dal grado effettivo di utilizzo delle risorse impiegate nei diversi modelli organizzativi. I rendimenti di scala sono invece misurati dalla diversa posizione dei punti minimi delle curve – che si posizionano, via, via ad un livello più basso – mostrando l’origine organizzativa/relazionale e non tecnica dei rendimenti stessi.

Figura 4 - Modelli di integrazione di processi economici elementari: Successione (1), Parallelo (2), Linea (3) Linea-parallelo (4)

1) Successione (attivazione disgiunta nessuna cooperazione)

2) Parallelo (cooperazione del team)

3) Linea (modello fordista)

4) Linea-parallelo (modello toyotista)
Ninni giov 04.png

È molto importante aggiungere che la rappresentazione completa dei quattro modelli organizzativi non è ridondante. Infatti, il modello “più efficiente” linea-parallelo indica solo una condizione sufficiente in termini di sostenibilità. Infatti, se le condizioni esterne sono fortemente instabili (ad esempio, ampie fluttuazioni della domanda) e/o se si allarga la prospettiva analitica non solo alla manifattura, ma anche ai servizi, allora potrebbe non essere sostenibile organizzare la produzione in modalità linea-parallelo. In particolare, non è affatto detto che sia possibile prevedere un livello di domanda tale da consentire un’organizzazione stabile di processi omogenei in modalità linea-parallelo[10]. Figura 5 - Costi medi dei differenti modelli organizzativi

Ninni giov 05.png

L’impresa è il risultato finale dell’integrazione di processi elementari o “interfacce tecnologiche” o team di risorse. Seguendo ancora Coase, è dunque necessario considerare l’impresa come il limite all’integrazione – orizzontale e verticale – di processi eterogenei, congiuntamente alla presenza dell’azione di collaborazione/competizione con i “gestori” di processi limitrofi: uguali o fungibili, a monte o a valle, e svolgibili anche all’esterno dell’unità da altre imprese. Questa doppia azione di confronto tra alternative consente – o meglio costringe – a modificare l’unità di analisi: ci si deve porre il problema degli assetti possibili della divisione sociale del lavoro tra tutti i “gestori di risorse” nello spazio geografico, lungo la filiera, all’interno del gruppo merceologico di riferimento, in diversi contesti istituzionali.

Dall’analisi per processi segue una prima indicazione metodologica fondamentale: una proxy corretta della dimensione dell’impresa non può essere mai una variabile di flusso (es. il Fatturato) – perché strettamente dipendente dal ciclo e/o dalle fluttuazioni del mercato, dalle variazioni nei prezzi o dal grado di integrazione – ma solo una grandezza connessa direttamente alla capacità produttiva potenziale, quindi ai suoi costi “inevitabili” (addetti a tempo indeterminato, immobilizzi di capitale, capacità massima degli impianti strategici, ecc.) (Coase, 1987, p. 65; Georgescu Roegen, 1971, p. 46).

Procediamo, semplificando ancora in modo estremo il discorso. Se si fa riferimento al solo modello linea-parallelo (Figura 4d) quale esempio di utilizzo sostenibile delle risorse possiamo porci immediatamente il problema di confronto tra alternative: lo schema rappresenta l’integrazione ottimale di processi elementari nel perimetro di una sola impresa; oppure, può essere la stilizzazione di una fotografia presa da Google-map in un distretto industriale tipico, ad esempio, come quello della lavorazione carni a Castelnuovo Rangone (MO) (Figura 6).

Nella foto, dal solo confronto della superficie dei tetti dei capannoni nella zona industriale, è possibile osservare impianti piccoli, medi e grandi; l’uno accanto all’altro, come gruppi di lavorazioni svolti nel perimetro di una sola impresa, oppure da una pluralità di aziende che possono svolgere tutte, o solo alcune fasi.

Figura 6 - Distribuzione territoriale delle imprese del distretto della lavorazione delle carni nella zona industriale di Castelnuovo Rangone (MO)

Ninni giov 06.png

Fonte: Google Map

Immaginiamo allora che tutte queste alternative possano realizzarsi simultaneamente ed essere ancora stilizzabili con l’esempio del modello linea-parallelo[11]. Quindi, indicando con l’operatore Å l’integrazione di fasi all’interno di una stessa impresa, e con l’operatore + lo scambio di prodotti di lavorazioni tra imprese a monte e a valle di una filiera, possiamo individuare otto diverse strutture di integrazione/scambio; e, dunque, otto diversi possibili assetti dei diritti di proprietà, corrispondenti alle otto tipologie di cluster di “imprese” a dimensione variabile[12].

Veniamo ora al punto cruciale: quale sarà, dunque, l’assetto della struttura industriale per classe di dimensione delle imprese che ci attendiamo da queste alternative nella divisione sociale del lavoro[13]? Quali processi stocastici si possono mettere in moto da tutti questi assetti organizzativi possibili?

Ancora una volta per rispondere alla domanda è necessario cambiare unità di analisi: non è possibile stabilire la dimensione dell’impresa partendo dall’impresa stessa. L’unità di analisi è adesso la “dimensione del mercato” (o della filiera) che disegna le diverse possibilità nella divisione del lavoro; ovvero, le potenzialità produttive espresse dall’ammontare di risorse che debbono essere complessivamente impiegate per un’allocazione sostenibile delle risorse. Nel nostro esempio numerico la “dimensione del mercato” è 240 torte (o un suo multiplo); le potenzialità delle risorse impiegate sono 10 addetti (o un loro multiplo), che ci immaginiamo essere sempre contendibili rispetto ad altri impieghi alternativi[14].

È certamente vero che un mondo senza costi transattivi corrisponde ad una condizione inosservabile: nessuna forma di divisione del lavoro può essere concettualizzata senza considerare i relativi costi del coordinamento tra le parti (Coase, 1988, p. 178). È altresì probabile che, localmente o in un processo in filiera – dato il “gioco” ripetuto tra operatori che si conoscono, conoscono metodi e competenze necessarie al processo produttivo, utilizzano beni comuni e sono soggetti alle medesime regole istituzionali – il teorema di Coase può indicare un tendenziale punto di equilibrio anche in un mondo a costi transattivi positivi[15].

Sotto queste ipotesi, tale teorema può essere così declinato:

La sostenibilità di un sistema istituzionalmente omogeneo può essere raggiunta indipendentemente dalla distribuzione dei diritti di proprietà.

In altri termini, la proposizione può rappresentare la condizione limite del risultato congiunto, sia dell’azione cooperativa – all’interno dei confini giuridici dell’impresa – sia di quella concorrenziale tra le imprese (le quali possono esse stesse collaborare).

Allora, se l’efficienza organizzativa sostenibile è raggiunta indipendentemente dalla distribuzione dei diritti di proprietà sulle risorse impiegate – cioè dalla dimensione delle imprese – tutte le combinazioni integrazione/scambio riportate nel Quadro 2 saranno equiprobabili. L’insieme di tali combinazioni costituisce, dunque, lo spazio degli eventi della distribuzione per classe di dimensione di tutte le unità operative, in grado di svolgere azione d’impresa in modo economicamente sostenibile[16]. Per il “settore delle torte” dell’esempio, tale distribuzione assumerà la forma riportata nella Figura 6.

Le implicazioni di questo risultato sono molte: tutte conducono a esiti diversi e contro intuitivi rispetto alla teoria standard. In primo luogo, come si è detto, l’efficienza – essendo determinata dalla dimensione globale del network (240 torte) e essendo definite le modalità della divisione sociale del lavoro tra unità economiche elementari – può essere raggiunta indipendentemente dalla dimensione fisica degli asset “posseduti” da una specifica unità. Figura 7 - Distribuzione attesa per classe di dimensione delle imprese.

Ninni giov 07.png

Questa conclusione potrebbe essere erroneamente interpretata come il risultato di una funzione di produzione a rendimenti costanti di scala: al contrario, si è visto che – dato il processo elementare – nell’assetto linea-parallelo l’azione organizzativa ha già realizzato rendimenti crescenti in tutte le unità. La distribuzione attesa è ottenuta indipendentemente dalle ipotesi sui rendimenti di scala, ma in stretta relazione alla decomponibilità dei processi e, quindi, alle possibilità di divisione sociale del lavoro tra unità economiche (Landesmann and Scazzieri, 1996).

In altri termini, il meccanismo basilare dei rendimenti non deriva, né dalle caratteristiche fisiche dei fattori, e neppure da una intrinseca relazione funzionale data ex-ante, ma unicamente dalle configurazioni allocative rese possibili da specifici assetti istituzionali.

Per gli stessi motivi, in equilibrio, l’insieme delle relazioni ottimali è indipendente della distribuzione dei diritti di proprietà sulle risorse e dunque, come in figura, non corrisponde a nessuna dimensione univocamente determinata: al contrario, la dimensione “ottima” delle unità corrisponde all’intera distribuzione di probabilità delle dimensioni che le imprese possono assumere. Quindi, ad esempio, la distinzione meta-analitica piccole/grandi imprese è logicamente inconsistente.

L’implicazione più importante – soprattutto sul piano della cultura economica – è però un’altra: non esiste alcuna possibilità di tracciare una curva individuale di domanda di fattori e/o d’offerta dei beni – certamente non sui principi del prodotto/costo marginale calcolate sulla presunta possibilità di variazione ceteris paribus di un singolo fattore – perché la “produzione” (e quindi il fabbisogno di fattori) è espressa dalla dimensione complessiva del reticolo (lattice), dalla struttura delle relazioni interne ad esso e dai costi che implicano tali relazioni: tra risorse nel processo, tra i processi nell’impresa, e tra imprese nel territorio e nelle filiere[17]. Quindi, in sintesi, a tutti i livelli dell’analisi (nano, micro, meso e macro) la remunerazione dei fattori – dunque la distribuzione del reddito – è influenzata delle decisioni istituzionali ed è indipendente dalle tecniche[18].

L’assenza di curve individuali di domanda di fattori elastiche al prezzo è una conclusione che non deve stupire: è il risultato cui si arriva scoprendo che la realtà virtuale, corrispondente al concetto scolastico di “breve periodo” nell’impresa atomistica, è logicamente inosservabile. O meglio, l’indeterminatezza della curva di domanda individuale è la generalizzazione delle conclusioni cui la stessa economia standard giunge in tutti i modelli di “concorrenza imperfetta”, oppure nello stesso modello di concorrenza perfetta, ma in prospettiva di “lungo periodo”. In sintesi, nelle condizioni di indeterminatezza che si verificano tutte le volte in cui l’impresa è posta in relazione con il suo ambiente economico: cioè sempre, in un mondo a costi transattivi positivi.

Se quanto detto è coerente, allora la “legge di Gibrat” è davvero un modo economicamente fondato di sintetizzare il risultato atteso dell’evoluzione delle dimensioni delle imprese appartenenti ad un insieme omogeneo (Brusco, Giovannetti e Malagoli, 1979). Ovvero, sul piano operativo, la verifica della legge è un test teoricamente coerente sulla stabilità della struttura – non solo in media, ma anche in varianza – rispetto al comportamento delle parti che la compongono, anche in presenza di un ciclo economico favorevole o avverso[19].

Sempre da questa base di teoria economica è possibile raggiungere un altro risultato di grande importanza. La divisione del lavoro tra unità – che svolgono fasi in “filiera” con relazioni di proporzionalità le une alle altre – genera una popolazione d’imprese a dimensione variabile x che si distribuisce secondo una curva di Pareto, o di Zipf per valori discreti, con densità di probabilità[20].

Per le considerazioni fatte, il passaggio teorico importante – assente in letteratura – è il significato economico che si può assegnare ai parametri H e .

In particolare, H sembrerebbe indicare la dimensione minima in termini di risorse necessarie al funzionamento dell’unità economica, definita dalle modalità con cui è possibile spingere in un certo momento del tempo la divisione del lavoro in una determinata filiera o cluster d’imprese appartenenti ad un comparto produttivo. Il parametro può essere considerato, invece, una misura degli effetti di scala che l’azione organizzativa può raggiungere con quella popolazione di unità economiche che lei stessa genera coordinando i processi[21]. Tale parametro indica, infatti, il rapporto di proporzionalità inversa tra aggregati di unità, di una data dimensione, con quelle di dimensione maggiore: tanto è più alto e tante meno unità di dimensioni maggiori sono necessarie per raggiungere quei risultati. In altri termini, la maggiore scala di un’unità economica è raggiungibile solo con una progressiva integrazione di processi “omogenei”; quindi, la distribuzione dimensionale di quelle unità emerge come processo stocastico dal medesimo insieme di relazioni economiche. Tale insieme è omogeneo perché costituito da parti mutuamente orientate alla realizzazione dello stesso macro processo: nell’impresa, nella filiera, nel cluster o nella rete di “transazioni organizzate”. Dunque, il concetto di omogeneità non implica necessariamente un identico contenuto merceologico, ma rappresenta soprattutto una relazione funzionale di proporzionalità tra fasi a monte, a valle o in parallelo, svolte in una determinata “comunità” economico/sociale/ambientale.

Siamo dunque giunti a un’importante conclusione, assai utile nel processo di valutazione seguente. La scelta della distribuzione di Pareto/Zipf non avviene perché si “adatta” meglio a quanto si osserva empiricamente. Al contrario, è la teoria dei processi – e la determinazione stocastica della distribuzione delle imprese nella divisione sociale del lavoro – che consente di scegliere quale tra le distribuzioni statistiche è quella attesa, fornendo una motivazione economica ai parametri della funzione generatrice della densità di probabilità.

Vere queste condizioni strutturali, la legge di Gibrat dovrebbe essere sempre verificata, sia nei confronti delle fluttuazioni cicliche, sia nei movimenti demografici delle imprese. Infatti, da un lato, gli andamenti ciclici dovrebbero distribuirsi proporzionalmente in tutte le classi dimensionali e, dunque, impattare solo sul livello medio della variazione del sistema; dall’altro lato, la demografia delle imprese dovrebbe essere ancora largamente determinata dalle relazioni di proporzionalità tra le unità dell’insieme. Ad esempio, per un’impresa che esce si dovrebbe registrare in modo stocastico: in ingresso, o un’altra impresa di uguale dimensione, o un cluster di nuove unità con capacità complessiva equivalente; ovvero, un’espansione proporzionale nelle dimensioni di unità già esistenti. Sempre per gli stessi motivi, se la legge di Gibrat non è verificata sembra dunque fondato supporre un mutamento strutturale significativo.

È ancora in virtù della spiegazione economica che è possibile andare oltre e affermare che, nel processo storico di divisione del lavoro, di una qualunque filiera, non c’è alcuna ragione di pensare che H e debbano essere necessariamente sempre gli stessi, e univocamente definiti.

In generale, è possibile immaginare che l’organizzazione del lavoro in una specifica filiera definisca storicamente dei cluster d’imprese specializzate in diverse fasi, o gruppi di lavorazioni o tipologie di processi a differente grado di decomponibilità. In questo caso, H assumerà valori probabilmente diversi in ogni fase e, dunque, dovremmo attenderci differenti distribuzioni relative ai vari cluster d’imprese, anche all’interno dello stesso gruppo merceologico. Inoltre, dati i diversi cluster, anche il parametro potrà assumere valori diversi in relazione alla differente produttività dello specifico gruppo di lavorazioni, fasi, servizi, ecc.

Infine, quello che è uno snodo teorico importante di questo studio: le popolazioni d’impresa possono essere molteplici anche come effetto della segmentazione del mercato del Lavoro.

Una simulazione di una distribuzione “paretiana multipla” può essere raffigurata dalla Tabella 1 e dalla Figura 7 che riportano i risultati di un esercizio sui dati di Modena – utile nella comprensione di quanto si dirà tra breve – dove la distribuzione delle imprese mostra cinque gruppi caratterizzati da dimensioni minime differenti. Dalla distribuzione delle imprese manifatturiere di Modena, assumiamo dunque che H = (1, 6, 10, 50, 100, 1000). Il coefficiente di scala α è stato invece stimato in relazione alla distribuzione effettiva delle imprese osservate: la tabella riporta i risultati.

La figura indica dunque la possibilità che, empiricamente, possano essere registrati non solo uno, ma numerosi “effetti soglia”, tutti determinati endogenamente dalle specificità organizzative, e tanti, quanti si sono affermati storicamente nella particolare divisione del lavoro realizzata da quel gruppo d’imprese.

Dalla stima dei parametri, la distribuzione attesa in Figura 8 porta alla luce la presenza di almeno cinque cluster d’imprese che caratterizzano l’economia modenese. Nessuno dei cinque sembra essere influenzato dai tanto teorizzati effetti distorsivi dell’articolo 18. In particolare, nel gruppo d’imprese da 10 a 50 addetti – proprio là dove dovrebbe emergere l’atteso effetto soglia sui quindici dipendenti – la distribuzione delle imprese segue senza alcuna “rottura” l’andamento teorico previsto.

Figura 8 – Distribuzione delle imprese modenesi e stima di una distribuzione di Pareto/Zipf multipla

Ninni giov 08.png

Fonte: elaborazione propria dati INAIL

Utilizzando i parametri stimati per la distribuzione del 2000, dato il numero delle imprese osservate per il 2011, si dovrebbe ottenere la distribuzione attesa riportata in Figura 7. Invece, dal confronto delle due distribuzioni, è facile rilevare il profondo mutamento nella struttura delle imprese e gli effetti di scala che si sono prodotti nel decennio osservato.

Un tentativo di misurare quello che è visibile in figura, è riportato in Tabella 1 dove sono stati ricalcolati i parametri della distribuzione, negli stessi cluster dimensionali, per il 2011. Utilizzando il valore di α come proxy della “produttività” del cluster – immaginato come aggregato d’imprese omogenee di risorse impiegate e valore aggiunto raggiungibile – il confronto 2000/11 mostra una rilevante contrazione dei valori nelle classi da 2 a 20 e da 50 a 250 addetti. Si vedrà che proprio in queste classi si è fatto ampio ricorso al lavoro atipico.

È importante ora anticipare ciò che appare se analizziamo più in dettaglio la distribuzione delle imprese per classe di dimensione, nei diversi comparti dell’economia modenese.

Tabella 1 - Parametri della funzione di Pareto/Zipf stimati per la distribuzione delle imprese per classe di dimensione, 2000 vs. 2011.

Classi di dimensione x 2000 2011
H α H α
1 addetto 1 1 0,25 1 0,38
2 addetti 2 1 0,25 1 0,17
3 addetti 3 1 0,3 1 0,2
4 addetti 4 1 0,4 1 0,2
5 addetti 5 1 0,5 1 0,2
6-9 addetti 7 6 0,9 6 0,7
10-14 addetti 12 10 0,9 10 0,7
15 – 19 addetti 17 10 1 10 0,7
20 – 29 addetti 25 10 1 10 1
30 – 39 addetti 35 10 1 10 1
40 – 49 addetti 45 10 1 10 1
50 – 99 addetti 75 50 1 50 0,5
100 – 149 addetti 125 50 1 50 0,5
150 – 199 addetti 175 50 1 50 0,5
200 – 249 addetti 225 50 1 50 0,5
250 addetti e oltre 500 500 2 500 2

Il pannello di grafici di Figura 9 riporta in modo sinottico la distribuzione delle imprese per classe di dimensione nell’anno 2000, relativamente ai principali settori che caratterizzavano l’economia modenese. In figura, i diversi comparti sono stati ordinati – da sinistra a destra e dall’alto in basso – sul numero dei cluster che li caratterizzano (da 2 in edilizia e nelle strutture metalliche, a 5 e oltre nel comparto dei servizi alla persona). Dal confronto, sono tre le considerazioni generali che possono essere proposte come interpretazione delle evidenti differenze strutturali.

In primo luogo, il numero dei gruppi – e non i parametri della distribuzione paretiana interna al cluster – può essere un indice del grado di eterogeneità interna ai comparti e, quindi, del numero dei gap organizzativi e tecnologici esistenti. In secondo luogo, può essere ipotizzata l’importanza – in particolare nei processi manifatturieri – della composizione/scomposizione della divisione del lavoro nelle diverse filiere. Molto diversi appaiono, invece, i pattern di comportamento nel settore dei servizi alla persona, dove non è possibile individuare alcuna struttura ordinata nella divisione sociale del lavoro, almeno fino alle dimensioni d’impresa superiori ai 20 addetti.

Figura 9 - Distribuzione delle imprese per comparto e classe di dimensione degli addetti (Modena 2000)

Ninni giov 09.png

Fonte: elaborazione propria dati INAIL

L’assetto industriale che si osservava nel 2000 era certamente il risultato dell’evoluzione dell’economia locale dal dopoguerra, fortemente legata alle regole del “distretto” (Brusco, 2008). Sotto l’influsso dei mutamenti delle istituzioni del mercato del lavoro di fine millennio – e per effetto dei processi di internazionalizzazione – la divisione del lavoro nelle diverse filiere, da paritaria, si è trasformata progressivamente in “gerarchica”; dunque, è cresciuta l’importanza del comportamento economico delle imprese capofila nel guidare il percorso di sviluppo e le regole di utilizzo delle risorse. Si ritornerà tra breve su questo punto.

Da ultimo, confrontando la Figura 8 e la Figura 9 sono evidenti gli effetti composizione prodotti dall’aggregazione dei differenti comparti, in grado di nascondere rapidamente – come si vedrà meglio in seguito – le differenti tipologie dei processi di cambiamento dietro la “cortina” dei valori medi.

In generale però, anche nella disaggregazione massima consentita dai dati, i presunti effetti distorsivi dell’articolo 18 non sono mai osservabili. Potrebbero essere sempre visibili, al contrario, gli eventuali effetti sul nanismo delle imprese della legge sull’artigianato, che definisce sempre in modo netto i confini del cluster 1-5 addetti in tutti i comparti manifatturieri, e che raccoglie un numero rilevante di unità economiche (vedi Figura 10).

Figura 10 - Distribuzione delle micro imprese industriali, artigiane e dei lavoratori autonomi a Modena

Ninni giov 10.png

Fonte: INAIL 2011

A questo proposito, è importante notare un altro elemento che la tabella in Figura 7 riporta: se H indica la dimensione in addetti minima (indivisibile) dei differenti cluster e α gli effetti di scala – dunque la produttività congiunta delle risorse impiegate – è facile osservare che questa decresce al ridursi della dimensione delle imprese, dai 10 addetti in giù. Date queste condizioni di minore efficienza, per reggere nel confronto competitivo, è altresì facile immaginare quali pressioni su salari, e quali conseguenze nella ricerca della “liquidità” del lavoro, comporti tale assetto strutturale.

Nel capitolo 4 si vedranno poi anche gli effetti della flessibilità ottenuta attraverso i contratti “atipici”, in regime di flex-insecurity istituzionalmente imposto nell’arco degli 11 anni osservati. Ma per procedere nella lettura e nella valutazione dei dati sono ancora necessari alcuni passaggi teorici.

La struttura istituzionale della produzione e la definizione delle risorse[modifica | modifica wikitesto]

Finora, negli esempi numerici riportati sopra, l’azione organizzativa si svolgeva immaginando regole istituzionali orientate all’impiego a “tempo indeterminato” della risorsa Lavoro. La razionalità che giustifica questa forma contrattuale come “normale” – perché sostenibile per tutti gli stakeholder – è basata su tre fondamentali.

In primo luogo, la sostenibilità dei processi di riproduzione della fertilità di una risorsa, deve essere associata alla responsabilità dell’uso nei processi economici: se è corretto che “chi inquina paghi”, generalizzando, chi usa una risorsa deve utilizzarla in processi sostenibili, quindi in grado di coprire i costi della riproduzione della risorsa stessa. Ovvero, è necessario remunerarla tanto di più, tanto più si rende onerosa la realizzazione del suo life-cycle (tempi morti della ricerca di nuovi lavori, tempi di spostamento, esclusione dal credito, difficoltà di scelte genitoriali, ecc.). Le istituzioni del mercato del lavoro italiane, nelle trasformazioni di fine/inizio millennio, hanno permesso ed incentivato il funzionamento opposto.

Il secondo elemento di razionalità è la riduzione dei costi transattivi: nella ricerca dei fattori e nel coordinamento tra fasi ed operazioni che si ripetono per cicli ed intervalli, tali da non prevedere soluzioni di continuità. Non è un caso che per quei processi produttivi, soggetti a varie forme di stagionalità e caratterizzati da ampie fluttuazioni della domanda di breve periodo (es. agricoltura, edilizia o turismo), storicamente, siano sempre state previste specifiche regole contrattuali e relative coperture assicurative dei periodi di inattività.

Infine, ed è questo forse l’elemento più significativo per lo sviluppo economico, i commitment contrattuali di periodo lungo favoriscono e proteggono le risorse immateriali (protocolli informali, linguaggi, cultura, informazioni trasmesse e condivise) che vengono create proprio in virtù di un rapporto con prospettive di lungo periodo (Brusco, 2008). Tali risorse fanno parte di quello che Georgescu Roegen (1971) ha definito il Fondo di Processo che, su scala meso-economica, può corrispondere al concetto di capitale umano e sociale: un bundle of capabilities che costituisce un “bene comune” di cui godono tutti gli attori del processo economico. La riproduzione di queste risorse è in primo luogo la riproduzione dell’impresa (Landesmann and Scazzieri, 1996). Al tempo stesso, ogni processo innovativo coincide con i processi organizzativi che modificano natura e qualità di tali aggregati – partendo e sfruttando le competenze di quelle stesse risorse – e, solo a seguire, della tecnologia così come viene comunemente intesa (Acemoglu, 2002; 2009; Amendola and Gaffard, 1998).

In termini istituzionalisti, il “Fondo di Processo” rappresenta tutti quegli elementi relazionali specifici che assicurano continuità di azione e abbattimento dei costi transattivi. La conservazione di tale “fondo” rappresenta, dunque, la vera radice economica delle indivisibilità/identità delle imprese e della stabilità del loro networking. In linguaggio corrente, quindi, tale risorsa collettiva è congruente con il significato di costi “fissi” – “inevitabili” nella terminologia coasiana – perché strettamente correlati, sia alle condizioni di sostenibilità nell’uso di tutte le risorse, sia all’efficienza tecnica del processo stesso.

A tutto questo segue che, se fosse davvero necessario un uso parziale e flessibile del lavoro – e se questo dovesse ridurre il suo grado di utilizzo sociale complessivo – il costo del suo utilizzo dovrebbe essere direttamente proporzionale al grado del suo mancato utilizzo o “spreco”: chi compromette la fertilità di una risorsa dovrebbe pagare in proporzione al danno, secondo lo stesso principio riconosciuto valido per l’internalizzazione dei costi d’uso delle risorse ambientali.

Per ragioni le cui radici affondano assai più nell’ideologia che nel metodo scientifico, l’economia standard addestra incessantemente il pensiero corrente a considerare questi costi una sorta di male economico, un vincolo che si dovrebbe poter superare per raggiungere le condizioni ideali della tecnologia: l’infinita possibilità di combinare fattori docili e liquidi.

Al contrario, anche dal banale esempio presentato sopra, si evince che esiste una correlazione forte e attiva tra “indivisibilità” decise e rendimenti crescenti: le economie di scala non esistono in natura ma, al contrario, sono costruite proprio grazie alle scelte sulla complementarietà specifica delle relazioni. Al tempo stesso, ogni processo innovativo concepibile si realizza solo attraverso la scelta di (nuove) relazioni specifiche, comunque legate alle complementarità esistenti (Amendola and Gaffard, 1998; Landesmann and Scazzieri, 1996; Lane et al., 2009; Milgrom and Roberts, 1995)[22].

S’immagini ora che un intervento istituzionale modifichi – top-down – le regole di assunzione e di controllo sulla sostenibilità nell’uso della risorsa Lavoro, consentendo una piena libertà di licenziamento e di contrattazione dei livelli retributivi esclusivamente in base alle effettive prestazioni orarie. In un processo elementare, come quello descritto in precedenza, la modificazione della struttura dei costi seguirebbe l’andamento riportato nella Fig. 11.

Il cambiamento delle regole, non necessariamente nel livello della remunerazione “normale”, ma soprattutto nelle possibilità d’impiego e uso del Lavoro, cambiano la natura della risorsa perché modificano la dimensione delle relazioni possibili. Infatti, mentre nel precedente assetto (a), la prospettiva di utilizzo prevedeva un periodo lungo e una relazione stabile di otto ore complementare al tempo di utilizzo degli altri fattori, nell’altra prospettiva (b) siamo di fronte a una serie di transazioni di breve periodo. Ad esempio, possiamo immaginare assunzioni intermittenti con un contratto di due ore, licenziamento alla terza ora del processo, riassunzione con contratto “breve” di un’ora nella quarta; nuovo licenziamento e nuova assunzione, per due ore, ma solo dalla settima ora fino al completamento del processo. Inoltre, data la tecnica, l’intensità della prestazione prevede solo il 66% di utilizzo delle potenzialità della risorsa, quindi la retribuzione di 100€ sarà ridotta del 33%.

Il risultato finale non è del tutto scontato, soprattutto per le sue implicazioni: sulla carta, i costi raggiungono lo stesso livello che raggiungerebbe nell’esempio il miglior modello organizzativo, in grado di sfruttare pienamente economie di scala; cioè 4,17€. La ragione è semplice e la spiegazione è antica: la possibilità di uso istantaneo dei fattori implica sempre un regime a rendimenti costanti di scala. Nel “non-luogo” della transazione come unità di analisi, la remunerazione perfettamente proporzionale all’uso, rende superflua la ricerca di rendimenti crescenti attraverso la cooperazione tra fattori[23].

Figura 11 - Costi medi dei processi elementari secondo due ipotesi alternative di regole istituzionali

a) contratti tipo “open-end” (relazione stabile Lavoro-Capitale)

b) contratti tipo “fixed-end” (relazione intermittente Lavoro-Capitale)

Ninni giov 11.png

Dalla prospettiva che qui interessa, c’è un altro fenomeno che deve essere investigato: gli effetti che un tale regime contrattuale ha sull’assetto delle imprese. Proseguendo ancora con il nostro esempio, ricordiamo che il livello di produzione in cui possono essere raggiunti i rendimenti massimi è 240. In un regime a uso intermittente e remunerazione perfettamente flessibile delle risorse, quel livello è raggiungibile anche da gruppi di nano-imprese con un solo addetto, secondo le modalità riportate nei due schemi della Figura 12a.

Figura 12 - Contratti di lavoro “intermittenti” a retribuzione flessibile e mutamenti strutturali

a) Tipologie d’imprese con contratti di lavoro “intermittenti” a retribuzione flessibile

b) Distribuzione della popolazione aggregata delle imprese

Ninni giov 12.png

L’ingresso di questi due nuovi gruppi d’imprese determina un mutamento della distribuzione attesa nella popolazione globale. Il suo andamento è riportato nella Figura 12b che indica l’effetto soglia – invisibile senza una teoria dei processi – con la diversa colorazione per i due cluster[24]. La coesistenza economica delle due forme di attivazione è dunque possibile sono in virtù della segmentazione del mercato del lavoro.

Quindi, una nuova sub-popolazione di imprese può entrare sulla scena e contendere gli spazi di mercato alle imprese già esistenti. Inoltre, dato che il modello organizzativo minimo è reso economicamente possibile, a fortiori diventano possibili anche tutte le altre forme organizzative. Il risultato atteso è un potente e distorsivo incentivo al downsizing delle unità produttive. Allo stesso tempo, è altresì prevedibile che saranno proprio queste “più piccole imprese” a contendere, nei diversi cluster, gli spazi economici soprattutto delle imprese di dimensioni minori delle classi limitrofe: queste saranno quindi spinte ad utilizzare una contrattualistica che privilegi contratti con orizzonte temporale sempre più ridotto (Cappellari, Dell’Aringa e Leonardi, 2011).

Vediamo ora che cosa è avvenuto nel periodo lungo undici anni, in uno straordinario laboratorio come la provincia di Modena, sede di almeno cinque distretti industriali (meccanica, agroalimentare, ceramica, tessile e biomedicale), dunque, uno dei principali motori dello sviluppo del Paese.
  1. Si dice che una relazione è antisimmetrica quando, qualunque siano gli elementi a e b appartenenti all'insieme A e non possono sussistere contemporaneamente quando a è diverso da b. Di conseguenza, una relazione in un insieme non è antisimmetrica se vi è anche solo una coppia degli elementi dell'insieme tali che il primo è in relazione con il secondo e il secondo è in relazione con il primo. Questo è ciò che risulta se si uniscono in un solo insieme la terna coasiana “istituzioni-contratti-transazioni” e la terna williamsoniana “transazioni-contratti-istituzioni”: tutti i termini hanno significati diversi, a seconda il diverso contesto teorico. Nel mondo coasiano, il contenuto informativo di un contratto non potrà mai spiegare il contenuto informativo delle istituzioni/consuetudini che lo rendono esigibile; al contrario, nell’approccio williamsoniano, il contratto è interamente spiegato dalla condizioni che caratterizzano la forma d’imperfezione che caratterizza la transazione (asimmetria informativa, frequenza, specificità). È interessante notare che, proprio nella scelta dei fondamentali della teoria economica – nel nostro caso la direzione e la necessaria inversione delle relazioni di causalità rispetto al mainstream – la relazione antisimmetrica non sarebbe verificata solo in un mondo inosservabile a 0-costi transattivi. Per un maggiore (e contrastante) approfondimento sui due approcci (Grillo, 1995; Giovannetti, 2005)
  2. Infatti, un impianto fotovoltaico ha come sua natura (apparente) la rivalità e l’esclusività nel consumo del flusso dei benefici prodotti nella sua vita tecnologica. Quindi non c’è ragione di pensare che il “mercato” non riesca a determinare – autonomamente – i corretti incentivi sia per la produzione, sia per l’attivazione privata di questi impianti. In realtà, tenendo conto dell’intero processo di filiera, la messa in opera di una tale tecnologia è soggetta ad un numero imprecisato di regole, incentivi, vincoli, accordi, esiti di azioni lobbistiche, convinzioni culturali, ecc.
  3. Per usare le parole di Papa Francesco nel suo discorso al parlamento UE: “[non è possibile] affermare i diritti del singolo senza tener conto che ogni essere umano è legato ad un contesto sociale in cui i diritti e i doveri sono connessi a quelli degli altri e al bene comune della società stessa”.
  4. Ragionando su questo punto, nel contesto italiano, l’esempio che mi sembrava di maggiore attualità erano gli effetti del sisma che ha colpito la bassa modenese nel 2012, accanto agli straordinari ed innumerevoli esempi di azione sociale ed istituzionale che possono essere raccontati, a testimonianza degli sforzi corali compiuti e della resilienza del sistema socio-economico emiliano. Purtroppo, proprio mentre scrivevo queste note, gli eventi catastrofici di Genova raccontavano la cronaca degli effetti dell’incuria ambientale sulla sostenibilità delle sviluppo.
  5. La stessa distribuzione lognormale della dimensione delle unità economiche – quindi una distribuzione normale nei logaritmi – non è congruente con le previsioni delle teoria standard se non all’interno dell’ipotesi di rendimenti di scala costanti. Queste ipotesi influenzano naturalmente anche i parametri attesi della funzione di produzione e, dunque, impongono anche precisi vincoli alla possibilità di generalizzare le forme funzionali ipotizzabili ai diversi livelli di aggregazione delle unità (Acemoglu, 2009, p. 526)
  6. In realtà, l’analisi di Georgescu-Roegen (1971) si spinge ben più in profondità indicando la natura storico/organizzativa dell’indivisibilità con la definizione del Fondo di processo, un “bene comune” che incorpora, internamente al processo, l’azione congiunta di tutti gli altri fattori e di cui tutti gli agenti coinvolti godono i benefici della cooperazione. Per una disamina in profondità e per la generalizzazione del modello a “Fondi e Flussi” si rimanda ai contributi e alle ampie referenze bibliografiche contenute in (Morroni, 1992; Petrocchi e Zedde, 1990; Landesmann and Scazzieri, 1996).
  7. I costi medi variabili sono analiticamente trascurabili perché costanti e integralmente determinati dai flussi d’input da trasformare, così come previsto dal livello di attivazione del processo: in sintesi, una o dieci torte hanno in media la stessa quantità d’ingredienti.
  8. Per contributi che si spingono oltre, incorporando l’innovazione tecnologica vedi (Amendola and Gaffard, 1998; Lane et al., 2009)
  9. Il rapporto tra un livello massimo di produzione e numero fisso di addetti impiegati è: 10/1 nel modello in successione; 30/2 nell’organizzazione in parallelo dei processi; 80/5 nell’organizzazione in linea e, infine, 240/10 nel modello linea-parallelo. Per una descrizione particolareggiata del modello (Giovannetti, 2005)
  10. Ad esempio, se il processo elementare si riferisse, non alla produzione di torte, ma al taglio/lavaggio, asciugatura e messa in piega di capelli, sarebbe assai improbabile osservare delle botteghe con 10 parrucchieri sempre intenti ad accudire 30 clienti/ora per otto ore. Inoltre, i 240 clienti potrebbero presentarsi tutti all’ora di pranzo: nel settore dei servizi chi decide l’attivazione del processo è il cliente stesso, essendo lui il principale input e l’output del processo. Questo vincoli organizzativi e strutturali determinano, in generale, scale di produzione sostenibili via, via, diverse in relazione alla natura specifica dei servizi erogati.
  11. Nello schema ogni blocco di lavorazioni esemplifica due addetti che cooperano nella esecuzione di una specifica fase A, B, ecc. Quindi, può risultare del tutto indifferente se una freccia rappresenti un nastro trasportatore, che collega due stazioni di lavoro, o un camioncino che trasporta semilavorati da un’impresa all’altra.
  12. È importante aggiungere che sono state escluse filiere con combinazioni scambio/integrazione “asimmetriche”, potenzialmente sbilanciate su possibili condizioni di quasi-monopolio – ad esempio AÅBÅCÅD+E – quindi economicamente instabili e non sostenibili. In altri termini, si accetta l’ipotesi che tali assetti possano determinare davvero un problema di asset specificity che gli agenti rifiuteranno, o risolveranno con contratti espliciti: accordi di cooperazione o forme ibride di quasi-integrazione tali da ricadere ancora nelle condizioni riportate nel Quadro 2. Questa notazione richiama e, forse, indica una via per risolvere un punto problematico al centro della teoria dell’impresa post-coasiana che però non possiamo discutere in questa sede in modo approfondito. L’idea di base della sintesi neo-classica di Williamson è, appunto, che l’asset specificity renda sbilanciata la transazione e costringa alla “trasformazione fondamentale”, dallo scambio, all’organizzazione (impresa) (Williamson, 1991; 1996). L’idea è stata velocemente accreditata da molti autori che hanno visto, nelle differenti soluzioni del “gioco” a due dello scambio isolato, il terreno fertile per la costruzione di una nuova teoria dell’impresa basata sull’esercizio razionale dei diritti di proprietà (Hart and Moore, 1990; Hart, 1993; Grillo, 1995). Coase ha sempre contrastato in modo nettissimo l’ipotesi della rilevanza teorica del concetto “specificità degli asset”, non perché questi non esistano. Il punto è che le soluzioni contrattuali e organizzative di sistema possono essere assai più numerose di quelle ipotizzate come univoche, quindi ottimali e, dunque, tali da definire la natura stessa dell’impresa (Coase, 1991, 1998, 2002; Hansmann, 1996). Nell’esercizio, ad esempio, la combinazione AÅB+C+DÅE non è sbilanciata perché, non solo C ha almeno due partner commerciali, ma anche AÅB oppure DÅE hanno, nei fatti, due partner: uno diretto C e l’altro indiretto, grazie alle possibili strategie che lo stesso C può mettere in atto con l’altro competitor.
  13. In questo caso, l’unità di analisi impresa deve intendersi come il risultato dell’esercizio dei diritti di proprietà su un determinato ammontare fisico di risorse, nei certi limiti istituzionali in cui è possibile esercitarli (Coase, 1937 [1991], 1992; Stigler, 1951; Leijonhufvud, 1986).
  14. Naturalmente si potranno produrre anche 300 torte, ma dovrà essere aggiunta nuova capacità produttiva non pienamente utilizzata e dunque, in concorrenza, l’intero sistema subirà una riduzione del grado di utilizzo degli impianti. In sintesi, nel breve periodo l’offerta aggregata potrà essere a costi crescenti, non perché aumentano i costi marginali delle imprese, ma solo perché aumentano i costi fissi medi di tutte le unità produttive indipendentemente dal livello di integrazione. Anche in questa eventualità, dunque, non ci sono implicazioni tali da modificare le considerazioni che seguono
  15. Valgono ancora tutte le condizioni generali di funzionamento del teorema: assenza di effetti reddito e rigorosa definizione dei diritti. Come si è visto nel Quadro 1, tali condizioni corrispondono a due lemmi sulla sostenibilità: l’equità nelle condizioni di accesso all’uso delle risorse e il pieno riconoscimento dei costi diretti ed indiretti di utilizzo/riproduzione delle risorse stesse. Quando queste circostanze fossero assicurate, anche in condizioni di scambio generalizzate in un sistema aperto, le stesse ipotesi di equilibrio del teorema potrebbero essere idealmente estese al concetto classico di concorrenza perfetta.
  16. TPPT In caso di separabilità delle varie fasi – dato lo stesso processo elementare di base e il massimo lotto di produzione raggiungibile in modo efficiente (240 torte) – il modello di generazione della distribuzione rimane lo stesso, imponendo regole di proporzionalità tra le parti e, quindi, sulla dimensione e sulla struttura della popolazione delle imprese.
  17. Il “rasoio di Occam” è in azione: “With this mode of analysis, attention is focused squarely on the economic structure of the problem as represented by the complementarity assumptions, rather than on the technical issues of specifying tractable functional forms, ensuring the existence of interior optima, managing the case of multiple optima, characterizing the optimum by first-order conditions, and so on” (Milgrom and Roberts, 1995, p. 199).
  18. Vedi la citazione in epigrafe (Acemoglu, 2002).
  19. Ancora ad esempio, se la domanda salisse da 240 a 2400 torte, dovremmo aspettarci che una “mano” estragga dall’urna – contenente “pacchetti” delle 5 unità, nelle 8 combinazioni possibili riportate nel Quadro 2 – gli altri 9 assetti necessari a coprire la domanda, scegliendoli in modo casuale: dato che le combinazioni sono equiprobabili, media e varianza della nuova popolazione di soggetti nel settore non cambieranno. Lo stesso esito si avrà immaginando la crescita delle imprese capofila già esistenti che trascina, in proporzione, l’aumento delle imprese a valle; ovvero, lo stesso esito si otterrà con una combinazione di nuovi ingressi, espansione delle unità già esistenti, fusioni o scorporo di lavorazioni in nuove imprese. Una filiera efficiente, qualunque sia la distribuzione dimensionale delle imprese che la compongono, dovrà produrre sempre 240 torte.
  20. In questa sede non è possibile ricostruire il vasto filone di letteratura relativa alla verifica della “legge di Gibrat”, la scelta della distribuzione statistica della dimensione delle imprese e i possibili effetti della loro evoluzione. Per l’utile ricostruzione della problematica, della storia del pensiero e dell’applicazione empirica di temi vicini a quelli trattati, si rimanda a Crosato, 2003; Crosato e Ganugi, 2007; Crosato, Destefanis e Ganugi, 2014.
  21. Ad esempio, la distribuzione delle imprese nell’esempio numerico riportato è ben approssimata con H=3,125, cioè il numero di risorse umane impiegate nel processo, ponderate con il loro grado di utilizzo e dato il tempo d’impiego totale deciso per contratto: 5 fasi/uomo x 5 ore impegno/8ore contrattuali. Invece la stima del fattore di scala è α=0,417 pari alla contrazione dei costi unitari nel caso di attivazione efficiente dei processi: quindi la massima produttività del lavoro che l’azione organizzativa riesce ad ottenere. Un caso empirico di distribuzione delle imprese per classe di dimensione e tipo di lavorazione prevalente che conforta empiricamente quanto detto, viene dalla distribuzione delle imprese nella filiera delle carni suine a Modena (Bertolini and Giovannetti 2006; Giovannetti, 2012).
  22. General Motors, once the most successful of mass producers, spent some $80 billion during the 1980s on robotics and other capital equipment normally associated with the new methods [il modello toyotista]. It did not, however, make any serious adjustments in its human resource policies, its decision systems, its product development processes, or even in its basic manufacturing procedures. Either it failed to see the importance of making these complementary changes or else, for whatever reason, it was unable to make the changes that were required on these dimensions. The result was that those billions of dollars were largely wasted: GM in the early 1990s had assembly lines that should have been the most flexible in the world but that produced only a single model, while the corporation as a whole lost money at unprecedented rates.” (Milgrom and Roberts, 1995, p.194)
  23. Dimostrazione: 100€ / 8ore = 12.5 € all’ora; 12.5€ * 0,666 (% utilizzo orario)= 8.33€ cottimo orario; 8.33€ * 5 unità lavoro = 41.66€; Costo Totale 41.66€ / 10 torte = 4.17€ Costo unitario.
  24. L’azione istituzionale permette l’ingresso d’imprese con un solo addetto – che svolge lo stesso processo con la medesima tecnologia – e determina ancora una distribuzione paretiana. In questo caso però esistono due tipologie d’imprese: la prima con H=5, ancora con lo stesso numero di fasi/uomo del processo ma con grado di utilizzo del lavoro pari ad 1 (consentito dal salario “a cottimo” e da contratti intermittenti e flessibili). Questo cluster comprende tutte le imprese con un addetto. Il secondo cluster invece – con 2 o più addetti – ha ancora H=3,125 perché le regole d’integrazione non son cambiate. Entrambi i gruppi hanno medesimi effetti di scala e quindi α=0,417 identico al precedente esempio. Il parametro H mostra come la transazione – pur nell’ipotesi inosservabile di costi transattivi nulli – sia inadeguata come unità di analisi atemporale e astorica, perché non in grado di risolvere, neanche per assurdo, il problema della “divisibilità” perfetta della risorsa Lavoro (Georgescu Roegen, 1971). È importante aggiungere che l’esempio numerico mostra come l’attivazione dei processi sulla base della divisione interna del lavoro – a parità di condizioni – sia più efficiente dell’attivazione in forma “artigianale”. Infatti, nel primo caso il fabbisogno di risorse per processo attivato è pari a H = 3,125, minore rispetto a H = 5 necessarie nell’attivazione “artigianale”.
 PrecedenteSuccessivo