Le temps, la ville et l’urbaniste

26 mars 2009

Profits/Salaires : quel partage de la valeur ajoutée ?

Publié par alias dans Economie & clusters

Concernant le partage de la valeur ajoutée entre salaires et profits, j’ai pu lire tout et son contraire. Les fortes variations enregistrées au cours des trente dernières années (la bosse de 1975-1985) laissent toutefois entrevoir une modification durable des mécanismes de partage.

Remontons à présent le temps : Il semblerait que le taux de marge, c’est-à-dire la part de la rémunération du capital dans la valeur ajoutée, ait fortement baissé de 1970 à 1982 (45 à 37%) et sous l’effet de l’indexation des salaires, le salaire réel progressa beaucoup plus rapidement que la productivité marginale du travail. Les gains de productivité du modèle fordiste étaient relativement élevés.

Suite aux deux chocs pétroliers, il s’en suivit une très forte inflation. A partir du milieu des années 1980, la mise en place de politiques de désinflation pèsera en faveur d’une « modération » salariale. Le taux de marge se retrouvera en 1990 au niveau de 1973 et le partage de la valeur ajoutée se déforma au détriment des salariés. Ainsi, le salaire réel augmenta moins vite que la productivité. Cette transition correspond à une rupture dans les rapports de force sociaux.

De 1990 jusqu’à 2005, la période est marquée par une stabilisation de la part du capital dans la valeur ajoutée (31%) et du partage de la valeur ajoutée entre salaires et profits. Cela semble surprenant d’autant que l’on entend souvent que les profits du capital ne cessent d’augmenter au détriment des salaires, mais les chiffres sont là pour démontrer le contraire.

Les évolutions globales cachent cependant des fortes disparités sectorielles. Les revenus des salariés du secteur industriel ont particulièrement été affectés dans les années 1980 et la tertiarisation croissante de l’économie contribuera mécaniquement à accroître la part des profits dans la valeur ajoutée. En effet, la part des profits dans la valeur ajoutée est structurellement plus élevée dans les services.

En juillet 2008, le débat sur le partage de la valeur ajoutée prit soudainement une nouvelle ampleur.  

(Lire la suite…)

17 mars 2009

Les services à la personne : un secteur à structurer

Publié par alias dans Economie & clusters

Dans un précédent article intitulé Dialogue social autour de l’emploi et de la formation, j’évoquais l’intérêt très appuyé de Laurent Wauquiez, Secrétaire d’Etat à l’emploi, en faveur des emplois de services à la personne, au détriment des emplois liés à l’industrie et à la recherche-innovation verte.

Afin de ne pas tomber dans des travers identiques, j’ai parcouru le rapport du Conseil économique, social et environnemental du 19 novembre 2008 portant sur les services à la personne et en ferai une rapide synthèse. Il semblerait que les services à la personne constituent un gisement d’emplois pour l’avenir du fait d’un taux de fécondité relativement élevé, l’implication croissante des femmes sur le marché du travail et l’allongement de la durée de vie (doublement d’ici 2050 de la proportion de personnes âgées de plus de 75 ans, appelant la création d’une branche liée à la dépendance qualifiée de « 5e risque ».)

Le CESE estime qu’il faudrait mieux distinguer les services en direction des personnes en perte d’autonomie et des familles avec de jeunes enfants, des autres services davantage liés à la recherche d’une meilleure qualité de vie (soutien scolaire, assistance internet, jardinage, cours de sport à domicile…) pour lesquels une exonération fiscale n’est pas forcément justifiée. Si nous ne disposons pas de chiffres fiables quant au réalisé, lequel varie selon la méthode de comptabilisation utilisée entre l’OFCE et l’ANSP, nous évaluons le nombre de salariés du secteur des services à la personne à un peu moins d’1,4 million en 2005. La loi du 25 juillet 2005 avait pris le pari d’une création de 500 000 emplois en trois ans (plan 1). Il semblerait qu’il y ait un peu plus d’1,5 million de salariés en 2007.

L’OFCE estimera en conséquence qu’aucun changement significatif n’est apparu suite à la mise en œuvre du plan gouvernemental de 2005. Ces métiers utiles socialement souffrent d’un déficit d’image et sont relativement peu attractifs, du fait de la faiblesse du niveau des rémunérations et des qualifications ainsi que du temps partiel subi et de l’isolement des salariés. Il revient à l’Agence nationale des services à la personne de faire valoir ces métiers, financés à hauteur de 50% par l’Etat.

Le budget de l’ANSP révèle son objectif premier en faveur du développement de l’offre de service (2,5 millions d’euros en 2007) au détriment de la qualité de l’emploi (245 477 euros en 2007). De plus, la procédure accélérée de l’agrément simple ne permet pas d’exercer un réel contrôle des services rendus à domicile (délai d’instruction porté à deux mois, l’absence de réponse vaut accord). Il conviendrait d’harmoniser par le haut les différentes procédures qualités (normes Afnor/Qualicert). Les aides fiscales sont plafonnées au smic, créant ainsi autant de trappes à bas salaires et n’incitant pas à la formation. Il aura ainsi fallu un an de négociation avec le pour réévaluer les plus bas salaires conventionnels au niveau du smic (avenant du 27 juin 2008 à l’accord de branche de l’aide à domicile de 2002). Dans le domaine de la formation, la VAE lancée suite à la loi de modernisation sociale du 17 janvier 2002 n’a globalement pas tenu ses promesses en termes quantitatifs. Malgré la création du diplôme d’auxiliaire de vie sociale en 2002, l’offre de qualification, notamment la formation initiale au métiers de services à la personne reste insuffisante, invitant à une intervention plus poussée du Ministère de l’Education nationale. Toutefois, la convention ANSP-CNSA initiée par Martin Hirsch en 2006 permettra de lancer des plans régionaux de métiers en direction des personnes en perte d’autonomie dans le Centre, le Nord-Pas-de Calais et en Alsace pour commencer, en associant l’Etat, la Région, la CNSA, les fédérations professionnelles, les OPCA de branche, l’AFPA et le CNFPT. Un comité de pilotage national regroupe les Ministères concernés, la CNSA, les branches professionnelles, les OPCA, l’ARF et l’ADF, l’Unacss, le CNCPH et le CNRPA. Selon le Secrétaire d’Etat à la solidarité, 400 000 emplois devraient être créés avant 2015 pour répondre aux besoins des personnes en perte d’autonomie.

Le constat porte aussi sur la présence d’un secteur morcelé entre salariés travaillant pour un particulier employeur (83% des salariés, 1,28 million de personnes) et salariés travaillant pour l’un des 13 500 organismes agréés (associations, CCAS ou entreprises privées). L’objectif serait d’encourager les organismes agréés à se développer afin d’assurer un meilleur environnement professionnel aux salariés. Les entreprises de petites tailles, en dehors de quelques activités liées à l’amélioration de la qualité de vie, peinent à pénétrer le secteur des services à la personne ou à développer la taille critique suffisante pour s’y maintenir. Dans le secteur de l’aide à la personne en situation fragile, les entreprises sont confrontées à un tissu associatif souvent dense et bien implanté sur les territoires, entretenant des liens directs avec les Conseils généraux. Le CESE propose le développement de sociétés coopératives artisanales de services à la personne avec l’appui des chambres de métiers. Il suggère aussi la simplification de la gestion du Chèque emploi service universel, dont les délais d’encaissement s’avèrent trop longs pour la trésorerie des entreprises et peu compatible avec leurs prestataires habituels des départements (concernant l’APA). Des centres de ressources dédiés aux emplois de service accueilleraient la médecine du travail. Les salariés devraient pouvoir obtenir des bulletins de salaires reconnus. Ces mesures pourraient être financées par la branche famille de la sécurité sociale, bientôt excédentaire.

L’autre frein à la coordination et facilitant le recours aux particuliers employeurs est de nature fiscale. Les aides visant à réduire le coût des prestations représente un peu plus de 50% de la masse salariale du secteur, soit près de 4,6 milliards d’euros en 2007, en augmentation de près de 10% par an. Le coût pour les finances publiques de cette politique sociale est donc conséquent. Les aides versées aux prestataires agréés ne représentent que le tiers du montant des aides versées en direction des particuliers employeurs. Pour autant, les mesures financières nouvelles accordées suite à la loi de 2005 (exonérations de charges patronales de sécurité sociale pour les organismes agréés dans la limite d’une rémunération au Smic et réduction de 15 points de cotisations pour les particuliers employeurs 400 millions d’euros) n’ont pas modifiées la donne en faveur des organismes agréés mais ont plutôt servi à maintenir un statut quo. Le premier objectif visait-il sans doute, en simplifiant les déclarations Urssaf des particuliers-employeurs, à limiter le nombre d’emplois non déclarés. Par ailleurs, les aides destinées aux personnes fragiles (enfants de moins de 6 ans, personnes de plus de 60 ans et personnes handicapées) s’élèvent à 3,3 milliards d’euros, soit 72% du montant total des aides. Le reste, c’est-à-dire près du tiers des aides, n’a pas de public ciblé et peut « profiter » à tout à chacun. Le CESE préconise un fléchage progressif vers les personnes fragiles, le cœur de cible et d’améliorer sa dégressivité. En effet, le rapport Gisserot, Procureur général honoraire près la Cour des comptes, intitulé « perspectives financières de la dépendance des personnes âgées à l’horizon 2025 » de mars 2007, révèle l’effet anti-redistributif des aides fiscales. De même, le rapport Tabarot souligne que les familles ayant deux enfants et au revenu légèrement supérieur au Smic bénéficient le moins de la politique familiale (crèche). L’impact du cumul des aides fiscales et des prestations nécessiterait une étude approfondie.

14 mars 2009

Projet de loi création et internet/logiciels libres

Publié par alias dans Economie & clusters

En dépit du fait que seul un Français sur deux ait accès à internet – la France se situant seulement au 11e rang des pays européens – le basculement des usages des supports physiques musicaux vers le numérique semble irréversible. La commission permanente de contrôle des sociétés de perception et de répartition des droits instaurée le 1er août 2000 a ainsi perçu un peu plus de 1,2 milliard d’euros en 2006 et a publié cinq rapports.

Elle constate que le téléchargement illégal a pris une certaine ampleur. En effet, on estime à 50% de la valeur du marché de la musique la perte occasionnée par cette pratique, soit près de 369 à 500 millions d’euros selon les études, la fourchette basse aboutissant à la suppression de 1600 emplois.

En réaction, l’Europe adopta une directive européenne en 2001 portant sur l’harmonisation de certains aspects du droit d’auteur dans la société de l’information. Celle-ci fut transposée en droit français au travers de la loi DADVSI. Cette loi protége les droits d’auteur numérique en sanctionnant leur contournement, instaurant ainsi le délit pénal de contrefaçon pour lequel il est nécessaire de démontrer que les faits délictueux sont imputables à une personne déterminée. Elle prévoyait par ailleurs l’obligation de surveillance de sa connexion internet, mais cette obligation n’était assortie d’aucune sanction.

A présent, nos parlementaires examinent le projet de loi « création et internet » donnant suite au rapport Olivennes. La tonalité du rapport fut durcie par les accords de l’Elysée du 23 novembre 2007, pris en concertation avec les professionnels de la musique, du cinéma et de l’internet, lesquels proposèrent la mise en place de sanctions administratives en cas de non surveillance de sa connexion internet. Ces sanctions administratives sont conformes à l’article 1384 du code civil qui dispose que « l’on est responsable des dommages causés par le fait des personnes dont on doit répondre ou des choses que l’on a sous sa garde ».En cas de détournement d’une connexion, ce ne sera donc pas le responsable du téléchargement illégal qui sera poursuivi administrativement mais le titulaire de l’abonnement.

Les réactions sont nombreuses et portent notamment sur l’incompatibilité du système d’homologation avec les logiciels libres.

Elaboré suite aux accords de l’Elysée, le projet de loi « création et internet » prévoit ainsi que les sanctions administratives puissent être prises par la Haute autorité de la diffusion des œuvres et de la protection des droits sur internet (HADOPI), anciennement nommée Autorité de régulation des mesures techniques. L’HADOPI appliquerait un système de ripostes graduées, allant du simple avertissement, à l’avertissement par lettre recommandé jusqu’à la suspension temporaire de l’abonnement et l’établissement d’une liste noire des internautes. Aucune sanction ne sera prononcée sans qu’il n’y ait eu au préalable une procédure contradictoire. Le second groupe de sanctions relève du tribunal de grande instance et vise non seulement les internautes mais également les hébergeurs et fournisseurs d’accès. Ce modèle appliqué en Grande Bretagne et aux Etats-Unis montre que 80% des internautes ayant reçu un avertissement cessent de télécharger des œuvres illégalement. Certains détracteurs reprocheront à ce projet de loi la mise en place d’un système à double peine même si la Cour de cassation ainsi que le Conseil Constitutionnel (DC 28 juillet 1989) ont admis à plusieurs reprises cette coexistence de sanctions différentes (pénales et administratives) pour des faits identiques. D’autres diront que la suspension provisoire de la connexion internet est une atteinte portée aux libertés fondamentales pour lesquelles l’autorité judiciaire (et non administrative) reste à elle seule compétente ; toutefois, l’interruption de connexion pour défaut de paiement ne suscitent pas tant d’indignation. Peut-on considéré ce doit comme étant un droit fondamental ? Pour reprendre une autre image, il s’agit plus d’une mise en fourrière du véhicule que d’une suspension de permis. Les agents de la HADOPI seront assermentés et le traitement des données relèvera de la loi du 6 août 2004. Un décret en Conseil d’Etat devra spécifier les catégories de données conservées pendant un an, leurs destinataires et les conditions dans lesquelles les internautes pourront exercer leur droit d’accès et de rectification conformément à la loi du 6 janvier 1978. Finalement, ce projet de loi prévoit de multiplier les systèmes d’accès légaux aux contenus en sanctionnant la concurrence déloyale des services illicites, favorisera l’interopérabilité des plateformes légales, favorisera l’éclosion de nouveaux modes d’exploitation (VOD, services de musiques à la demande), si bien que les professionnels de la musique s’en félicitent. Cependant, et voici le principal reproche que nous puissions véritablement faire à ce projet de loi « création et internet » : l’homologation des logiciels de sécurisation exclut de fait la possibilité d’utiliser un ordinateur équipé en logiciels libres. Les utilisateurs de systèmes d’exploitation comme GNU/Linux seront donc de fait placés dans une insécurité juridique discriminatoire.

11 mars 2009

Dialogue social autour de l’emploi et de la formation

Publié par alias dans Economie & clusters

Après avoir traité des outils de régulation de l’économie financière ainsi que de la nécessité de relancer l’investissement dans le tissu industriel et de soutenir la recherche-innovation écolo-compatible auprès des PME, j’évoquerais ici plus spécifiquement de la problématique de l’emploi en vue de la rencontre du 19 mars, en m’appuyant sur la journée organisée à la Mutualité ce 10 mars autour du dialogue social en présence des syndicats et du Secrétaire d’Etat à l’emploi. Laurent Wauquiez insistera sur la nécessité de concilier le temps légitime des négociations et le temps de crise, incitant de ce fait les syndicats à accélérer le processus. Il fera également part de ses réserves vis-à-vis des conséquences de l’action des parlementaires, lesquels peuvent être amenés à revisiter les conclusions d’un accord entre les syndicats et le gouvernement, ce dernier étant alors amené à jouer le rôle de médiateur. La question économique telle qu’elle est posée consisterait à devoir choisir entre investissement ou consommation. Si les minima sociaux devraient être augmentés afin que plus personne n’aient à vivre en dessous du seuil de pauvreté et les salaires des patrons du CAC 40 sans doute plafonnés, ces mesures appellent la mise en place d’une gouvernance européenne et mondiale. Quant à augmenter le pouvoir d’achat de l’ensemble des Français, cela nous obligerait à importer nos produits de consommation du fait d’une insuffisance de notre capacité de production. Il semblerait toutefois que le Secrétaire d’Etat à l’emploi n’ait cure de la Chine et de l’état de notre balance commerciale, d’autant que ses propositions portent sur la création rapide d’emplois de service à la personne. Les syndicats le tanceront sur le fait de vouloir surtout faire du chiffre médiatiquement. Le Secrétaire d’Etat à l’emploi s’exclamera que le protectionnisme est bien le dernier de ses soucis…tout en critiquant la politique d’abaissement de la TVA suivie par l’Angleterre conduisant à accroître la production chinoise. Sa réaction à cet instant fut pour le moins surprenante, pour ne pas dire limitée. Pas un mot de la part du Secrétaire d’Etat à l’emploi, sur les industries, la recherche, l’innovation, ni sur la relocalisation des activités, la raréfaction des ressources énergétiques et la crise climatique…Conséquence d’un trop fort cloisonnement ministériel avec Luc Chatel ? Comment mettre en place de bons plans de formation dans ces conditions ?

(Lire la suite…)

5 mars 2009

CNDP : Nanotechnologies et philosophie des sciences

Publié par alias dans Economie & clusters

Rappelons que le Président de la République Nicolas Sarkozy a annoncé le 9 décembre 2008 un doublement de la dotation annuelle aux projets de recherche en nanotechnologies, pour la porter à 70 millions d’euros par an, soit 350 millions en cinq ans ; et en application des engagements du Grenelle de l’environnement, le Gouvernement a souhaité organiser un débat sur les risques et conditions de développement des nanotechnologies, sur la base d’un dossier coordonné par le Commissariat général au développement durable. 

La Commission nationale du débat public fut saisie le 24 février 2009 et vient d’annoncer sans surprise la constitution d’une Commission particulière présidée par Jean Bergougnoux, lequel avait déjà présidé la CPDP sur la francilienne. Polytechnicien, il fut Président d’EDF puis de la SNCF, avant d’être révoqué par Jacques Chirac suite à d’importants conflits sociaux alors qu’il dénonçait un manque d’investissement dans l’entreprise publique. Il a notamment réalisé une étude « Services publics en réseau : perspectives de concurrence et nouvelles régulations » en 2000 ainsi qu’un rapport sur l’énergie au sein du Conseil d’analyse stratégique en 2007. Il est européen, régionaliste et pro-nucléaire. En bémol, et ce malgré la qualité pédagogique de son propos, dans l’un de ses articles intitulé « la politique énergétique française face aux nouveaux défis de la planète », à aucun moment il n’abordera la question du traitement des déchets nucléaires.

La CNDP prendra ainsi en charge cette concertation selon les considérations suivantes : « Considérant que les produits contenant des nanoparticules sont déjà diffusés, que la R&D dans ce domaine, notamment en raison de la compétition internationale, revêt un caractère d’intérêt national, que ce secteur présente de forts enjeux socio-économiques notamment dans les domaines médicaux, industriels et énergétiques, que certaines propriétés des nanomatériaux manufacturés et des nanosystèmes issus de ces technologies peuvent leur conférer des effets secondaires sur la santé et l’environnement, que des incertitudes scientifiques fortes les concernant subsistent, que des questions légitimes d’ordre social, environnement et éthique se posent quant à l’opportunité de certaines des applications », « le débat devra éclairer l’Etat sur les modalités de soutien à la recherche et aux innovations,la caractérisation de l’exposition et l’évaluation de la toxicité sur l’homme et les écosystèmes, l’information et la protection du salarié sur son lieu de travail, l’information et la protection du consommateur,l’organisation du contrôle, du suivi et de la gouvernance, avec une attention particulière portée sur les questions de libertés publiques. Compte tenu des enjeux mondiaux en matière de recherche et d’innovation dans le domaine des nanomatériaux manufacturés et des nanosystèmes, une large place sera réservée aux aspects internationaux et européens sur le sujet

La commission particulière du débat public est toutefois pluraliste et fera nécessairement intervenir des experts. Reste, bien entendu, à préciser la nature de l’expertise. Pour cordonner les disciplines traditionnellement cloisonnées entre physiciens, chimistes, biologistes, informaticiens, technologues et leur trouver « un langage commun », le ministère de la recherche et le CNRS ont monté le réseau national C-Nano. Clément Rossignol, chercheur au laboratoire de mécanique physique de Talence, élu Vert à Bègles auprès de Noël Mamère, en a fait sa spécialité. Il est de ceux qui estiment urgent que ladite révolution sorte des cénacles de la science et de l’industrie pour être expliquée et débattue sur la place publique. Il a ainsi participé au documentaire de Julien Colin intitulé le « Silence des nanos » avec Benjamin Caillard du laboratoire d’intégration des matériaux et systèmes, le docteur Annie Sasco directrice de recherche en épidémiologie du cancer à l’Inserm, et Olivier Sigaut chercheur en sciences sociales et professeur à Sciences Po. Annie Sasco soulignera un manque d’investissement de l’Etat dans la recherche publique et l’évaluation des risques. L’agence française de sécurité sanitaire et de l’environnement du travail évoquera dans un rapport des « dangers potentiels » identifiés mais faute de méthodes de mesures adaptées, elle recommande des « bonnes pratiques » pour les salariés en contact avec ces matériaux. Comme les textes qui encadrent la mise sur le marché des produits chimiques et des médicaments ne prennent pas en compte les nano-matériaux, il y a « un vide juridique » précisera Clément Rossignol au journal Sud Ouest. Les nano auraient pu être intégrées dans la directive REACH. Philippe Lemoine, Commissaire de la CNIL, AAI créée en 1978, soulignera les avancées tout en estimant que « Les risques de dérive sont innombrables (puces RFID). La plupart d’entre eux peuvent toutefois être appréhendés par les principes fondateurs des législations « Informatique et Libertés » : principes de finalité et de proportionnalité, droit des personnes à maîtriser les informations qui les concernent, interdiction de traiter certaines informations sensibles. Aussi peut-on se demander si cette étape de méta-convergence technologique ne devrait pas susciter une méta-convergence juridique mondiale autour de ces principes ? Comment les CNIL européennes pourraient-elles s’y prendre pour amener les Etats-Unis à dépasser les règles sectorielles dont ils se sont dotés et à adopter une législation transversale, fondée sur les principes fondamentaux « Informatique et Libertés » et conforme à la nature du nouvel enjeu que représentent les nanotechnologies ? ». Si les nano sont dans les laboratoires de recherche, nous les trouvons aussi dans les supermarchés, lesquels vendent de nombreux produits « globalisés ». Il est avéré que ces particules de la taille d’un atome se sont glissées dans plus d’une centaine de produits plus ou moins courants, de l’électronique grand public aux cosmétiques et aux médicaments, en passant par la peinture en bâtiment, le béton ou la chirurgie.

Reste également à définir la forme du débat public. La grande mode est aux Conférences de citoyens, comme celle sur le Wifi et les antennes relais. J’ai toujours porté un regard critique sur ces formes de concertation, que je qualifierais d’élitistes car elles privilégient la technicité et la courte durée, au détriment de la démocratisation de la connaissance. Pour ne pas rester fermée sur mon positionnement, j’ai tout de même demandé à Marc Lipinski son film sur la Conférence de citoyens « Les nanos et nous » qu’il a organisé au Conseil régional d’Ile-de-France en 2007 en tant que VP en charge de l’enseignement supérieur, de la recherche et de l’innovation scientifique et technologique….Même si cela est passionnant, je n’ai pas changé d’avis…Par ailleurs ce mardi, en écoutant à l’occasion d’une réunion associative de quartier, Etienne Klein, philosophe des sciences spécialiste du temps, directeur de recherche au CEA et enseignant à Centrale ainsi que membre de l’OPECST, je fus heureuse de constater qu’il partageait mon point de vue. Celui-ci évoqua le basculement d’une société de la connaissance vers une société de l’usage des technologies. Or, ce qui intéresse l’individu n’est pas l’objet scientifique mais les valeurs, ce qui fait sens ; au risque d’un excès inverse, comme le créationnisme ou l’amateurisme scientifique d’un Claude Allègre prétendant détenir « sa vérité » en dépit des travaux du GIEC. Il ne faudrait pas oublier qu’à l’origine, Descartes souhaitait maîtriser la nature en vue du bonheur et de la liberté. L’objet scientifique était volontairement limité et binaire, et n’avait pas vocation à être normatif ni à se substituer au projet politique. Or aujourd’hui, il faudrait innover pour innover, conquérir des parts de marché suivant un raisonnement purement mimétique, si bien que le projet scientifique se trouve définalisé…D’où l’effondrement de la prospective et un climat anxiogène… Etienne Klein souhaiterait que la revendication du « droit de savoir » devienne davantage un « droit de connaître », que le débat public ne soit pas réservé à quelques spécialistes, mais ouvert au plus grand nombre. C’est ainsi que la démocratie est censée donner le primat à la conscience sur la compétence, en espérant que cela motivera les citoyens à s’intéresser au sujet et à augmenter de la sorte leur niveau de compétence. A travers les nanosciences, il ne s’agit donc moins d’évaluer les risques techniques que de définir collectivement notre projet de société.

Préconisations de issues de la Conférence de citoyens Nano du CRIDF : principe de responsabilité et élaboration d’un protocole de manipulation par l’industriel ainsi que d’une charte de transparence par le Conseil Régional ; application du principe de précaution faute d’une législation adaptée, mise en place d’un étiquetage précis et clair apposé sur les produits issus des nanotechnologies, renforcement de la recherche ; création d’une instance indépendante à l’échelle régionale, moyens budgétaires à la CNIL et lobbying communautaire, partenariat avec les principales associations de consommateurs et information auprès des médias.

DIM C’nano Idf de Marcoussis http://www.cnanoidf.org/actu-conf/nanosciencesidf/actu-conf

Klein E., les tactiques de Chronos, Flammarion, 2009

26 février 2009

Réguler les régulateurs financiers

Publié par alias dans Economie & clusters

La note de Convictions sur les régulateurs financiers traitera directement de la dichotomie entre régulation sectorielle étatique (forte et technocratique) et régulation prudentielle internationale (faible et consensuelle). Les écarts de réglementation permettraient aux opérateurs privés (affaires Kerviel, Madoff, Enron) de pratiquer des stratégies d’évitement (persistance de trous dont profitent les passagers clandestins, système des captures lorsque les opérateurs s’autocontrôlent, sanctions uniquement a posteriori lorsque la mission prudentielle est insuffisante). Toutefois, je vous propose ici de résumer la note de Stefan Fouché pour Terra Nova, afin d’expliciter le rôle joué par les régulateurs financiers et les propositions de réformes en cours. Ainsi, les régulateurs sont censés remplir des missions prudentielle, de surveillance et de sanction des marchés, des banques ou des assurances. L’éclatement des régulateurs, la faiblesse de leurs moyens, l’absence de coordination de leurs activités tant au niveau national, européen et international, imposent une nouvelle architecture institutionnelle qui peine à prendre corps. De plus, le principe d’autorégulation, dans sa dimension « évaluation des risques », peut conduire à une certaine forme de dérégulation. Il faut donc revoir les lignes de partage entre autorégulation et régulation publique (ex. : reconsidérer les marges des établissements bancaires) et se donner les moyens d’imposer des prescriptions impératives.

La France dispose d’un régulateur par secteur : l’Autorité des marchés financiers (marché), la Commission bancaire (banque), l’Autorité de contrôle des assurances et des mutuelles (assurance). Dans son rapport annuel 2009, la Cour des comptes dénonça un dispositif trop fragmenté et cloisonné, aux statuts hétéroclites. Toutefois, une instance de coordination existe. Le code monétaire et financier a institué un collège des autorités de contrôle des entreprises du secteur financier (CACES) chargé de fluidifier l’information entre les secteurs. Cette instance collégiale pourrait être renforcée dans un premier temps. La France pourrait ensuite faire le choix d’une autorité de contrôle unique dotée d’un mandat clair et de réels moyens. Des rapprochements entre le secteur bancaire et le secteur assurantiel sont actuellement en cours. Par ailleurs, le groupe de travail « réforme du système financier international », mis en place par l’Assemblée nationale et le Sénat, propose de passer d’un modèle structuré par catégorie de marchés ou type d’acteur financier (marchés, banques, assurances) à un modèle reposant sur la nature des risques : la protection contre les risques systémiques, la défense de l’intégrité des marchés, la sauvegarde des intérêts des investisseurs.

En Europe, les systèmes nationaux se livrent à une concurrence exacerbée au sein des multiples places financières (Londres, Paris et Francfort) afin d’attirer les investisseurs étrangers, au risque d’affaiblir leur capacité d’action. Si bien que les Etats membres seront appelés à se prononcer en faveur du maintien de leurs régulateurs nationaux ou opter pour des régulateurs transnationaux. Le processus de Lamfalussy permettra l’installation de trois comités de régulateurs nationaux sectoriels bien que sans pouvoir contraignant (CESR marché, CEBS banque, CEIOPS assurance). L’adoption de la directive Marchés d’instruments financiers (MIF) du 21 avril 2004 fut d’ailleurs controversée : Certains évoquant un processus de dérégulation. Ces comités pourraient alors à terme fusionner et être adossés à la Banque centrale européenne, ce qui nécessitera l’accord des 27 membres de l’union européenne. La note ne précise pas s’il sera question d’un nouveau modèle reposant sur la nature des risques ?

Au niveau mondial, au-delà du comité de Bâle et du G20, certains, dont le Président de l’Organisation mondiale du commerce, plaident pour la création d’un régulateur des marchés international adossé au Fonds monétaire international (FMI), ce qui nécessiterait l’accord de toutes les parties prenantes. La proposition étant difficile à mettre en œuvre dans l’immédiat, le Forum de stabilité financière (FSF) suggérera une formule plus souple : la création d’un collège international des régulateurs adossé au FMI. Préconisée en avril 2008, son application a pris du retard et ce futur collège aurait besoin d’outils contraignants.

19 février 2009

Dividendes de Total – annonce d’une pollutaxe ?

Publié par alias dans Economie & clusters

Dans un article du Monde du 17 février 2009, Daniel Cohn-Bendit adressait une lettre ouverte au Président de la République concernant les profits de Total, fleuron de l’industrie française. Je suis portée à croire que le comportement de certains grands groupes fausse le débat sur les moyennes entreprises ; chacun étant vite tenté de faire une généralité à partir de certains cas particulièrement scandaleux. Il n’empêche, je m’attendais en écoutant le 18 février l’allocution télévisuelle du Président de la République, à ce qu’il nous fasse part de propositions concrètes concernant la redistribution des richesses et la moralisation de l’économie financière. Il n’en fut rien, juste un énième renvoi en direction d’une future négociation entre partenaires sociaux…Nicolas Sarkozy s’était toutefois exprimé précédemment « à titre personnel » sur la redistribution des richesses en faveur de la règle des trois tiers : un tiers pour l’entreprise, un tiers pour les employés et un tiers pour les actionnaires. Mais est-ce suffisant pour préparer l’avenir ?

Daniel Cohn-Bendit souligne qu’avec 13,9 milliards d’euros de bénéfice sur 2008, le groupe Total distribue près de 37% de ses bénéfices à ces actionnaires, ceci qui ne reflète donc pas la situation optimale envisagée par le Président de la République. Mais surtout, la clef de répartition ne tient pas compte des externalités négatives (pollution liées aux activités de raffinage) qui resteront à la charge des contribuables. Il rappelle que le groupe Total a déjà montré qu’il n’assumait pas ses responsabilités suite au naufrage d’Erika en ne versant que 0,192 milliard d’indemnités alors que le coût environnemental fut estimé à 1 milliard d’euros. Malgré cela, Total continue à investir dans la consolidation d’un modèle économique dépassé et terriblement coûteux. Car au bout du compte, qui devra payer la réparation des dommages écologiques, si ce n’est les citoyens à travers leurs impôts et de nouvelles taxes et les pays pauvres dont les ressources sont pillées et les populations exploitées. Daniel Cohn-Bendit conclura sur le fait que Martin Hirsch n’aurait pris aucun risque à exiger que Total embauche – puisque le groupe l’a d’ores et déjà annoncé – sans leur demander des engagements sur leurs objectifs industriels ! Or, les bénéfices du groupe devraient être réorientés vers la création d’emploi dans les énergies vertes renouvelables, voir des emplois visant à restaurer le milieu naturel et la biosphère.

Ainsi, il convient d’internaliser les externalité. La solution la plus intuitive consiste à créer des marchés de droits à polluer, qui obligent les entreprises à prendre en compte la pollution qu’elles génèrent, lorsqu’elles optimisent leur profit. Dès lors que l’information des régulateurs publics est imparfaite, cette solution est plus efficace qu’une réglementation qui définirait, pour chaque entreprise, le niveau de pollution admissible. La mise en place d’un tel marché nécessite toutefois que soit défini ex ante le niveau global de pollution acceptable, qu’une bourse soit créée, et que le comportement réel des entreprises soit contrôlé. Une telle solution a été mise en place pour la première fois dans les années 80 dans la baie de San Francisco pour les émissions de dioxyde de soufre. Elle devrait bientôt être mise en place dans l’Union européenne pour le dioxyde de carbone. L’autre solution consiste à mettre en œuvre une taxe pigouvienne (pollutaxe ex : taxe carbone) inventée par Arthur Pigou en 1920 ; l’entreprise ayant intérêt à ce que cette taxe ne soit pas supérieure au coût marginal induit par la pollution. De même que pour la réglementation, cette solution nécessite que la puissance publique connaisse précisément les coûts marginaux de tous les agents à la source de l’externalité négative. Or le Président de la République proposa de supprimer la taxe professionnelle, constitutive d’une bonne partie des recettes des collectivités territoriales, et de la remplacer par une taxe carbone d’ici l’année prochaine.

La taxe carbone a toujours fait de longs débats au PS (débat sur la TIPP flottante au sein de la commission développement durable dont je garde un très bon souvenir) ou chez les Verts. Si nous voulons économiser volontairement l’énergie fossile, nous devons désirer une hausse de son prix en termes réels, seulement, cette mesure présente un important coût social très important pour les automobilistes et peut même provoquer une inflation. Par ailleurs, cette taxe qui sert de ressources aux collectivités ne doit pas être constitutif de l’ensemble de ses recettes. Jean Paul Huchon disait ainsi combien il pouvait être absurde que les recettes de la Région Idf, désireuse d’investir dans les transports en commun, reposent sur une taxe sur les activités polluantes. Pour être efficace, dira Jean-Marc Jancovici, la taxe carbone doit être planifiée et annoncée très longtemps à l’avance, par exemple sur 15 ans, afin que les citoyens comme les entreprises puissent la prendre en compte dans leurs projets d’avenir sans avoir à en souffrir, notamment par le choix des moyens de transport les moins polluants. Si le gouvernement avait au travers du Grenelle de l’environnement souhaité mettre à l’étude la création d’une taxe carbone, l’annonce subite formulée par Nicolas Sarkozy, consistant à supprimer la taxe professionnelle afin de la remplacer par une pollutaxe, a donc de quoi effrayer. La somme est colossale : 11 Milliards d’euros à trouver !

Toutefois, le principe en lui-même n’est pas mauvais – le revenu de la taxe carbone peut être utilisé pour faciliter la transition de la société vers une consommation plus sobre – seul le calendrier pose problème. Plusieurs possibilités de redistribution sont envisageables : le financement de mesures d’aides spécifiques aux populations à faible revenus (proposition de J. Hansen, climatologue en chef de la NASA), le financement de programmes environnementaux (proposition de Daniel Cohn-Bendit), le financement du budget de l’État (proposition de Jacques Attali reprise par Nicolas Sarkozy). En France, il y eut un précédent : En décembre 2000, le Conseil Constitutionnel censura un projet visant à étendre la Taxe Générale sur les Activités Polluantes (TGAP) aux consommations intermédiaires d’énergie, dans la mesure où il a constaté une rupture d’égalité devant les charges publiques (chauffage collectif surtaxé par rapport au chauffage individuel, important effet de seuil dans les barèmes, mise en difficulté de certaines entreprises dont le process dispose de peu de marge d’amélioration comme l’aluminium, taxer l’électricité nucléaire -peu pourvoyeur en GES- autant que le gaz) et une atteinte portée au droit d’amendement. Cette taxe était fondée sur le contenu en carbone de chaque produit, avec un taux de référence de 11 euros la tonne de CO2. Alors évidemment, on ne peut que se poser la question de l’effectivité d’une taxe carbone sans abattement sur les actions de Total (58,4 millions de tonnes de CO2)…

16 février 2009

Encourager les placements durables des ménages ?

Publié par alias dans Economie & clusters

Une proposition de Jean Peyrelevade, l’auteur de « Nicolas Sarkozy : l’erreur historique », m’intrigue. Je vais tenter d’expliquer son raisonnement qui vise à maintenir les intérêts des prêteurs et sanctionner les dividendes des actionnaires. Son système vise à gagner en stabilité économique et à éviter la volatilité des placements.

Une personne physique, disons un ménage capitaliste, perçoit des intérêts en tant que prêteur ; des dividendes et plus-values en tant qu’actionnaire.

Les intérêts sont déductibles fiscalement du bénéfice des sociétés et peuvent être réinvestis pour faire face à la concurrence étrangère. Sa proposition ne concerne pas les intérêts des prêteurs. 

Les dividendes sont par contre fiscalisés deux fois, au niveau de l’entreprise sur les bénéfices des sociétés (1), et au niveau des ménages en tant que revenu du capital (2). Il propose de supprimer la fiscalité sur les dividendes au niveau de l’entreprise (1), les marges brute et nette de l’entreprise sont alors augmentées d’autant. Supposons que cette marge (1) soit redistribuée aux actionnaires (2). Il suffit alors que l’Etat taxe de façon majorée les dividendes des ménages-actionnaires (2) pour reconstituer ses ressources.

A priori, l’entreprise n’y gagne ou ne perd rien, l’Etat non plus, sauf que les marges non redistribuées aux actionnaires sont détaxées, contrairement aux dividendes des actionnaires. A pression fiscale globalement inchangée, l’intérêt conjoint de l’entreprise et des actionnaires sera d’investir davantage et de moins distribuer, ce qui permettra de relever le taux de croissance. La valeur de l’action montra mécaniquement, les actionnaires retrouveront sous forme de plus-values la valeur des dividendes auxquels ils auront temporairement renoncés.Et afin que l’Etat ne soit pas le dindon de la farce, il pourra taxer les plus-values à un taux adéquat pour reconstituer ses recettes.

Ma question est la suivante : la France, peut elle, seule, appliquer ce modèle ? Les ménages-actionnaires ne risquent-ils pas de se tourner vers des fonds étrangers plus lucratifs à court terme ?

15 février 2009

Pouvoirs d’achat : pour consommer des biens délocalisés ?

Publié par alias dans Economie & clusters

Augmenter le pouvoir d’achat des ménages, on n’entend plus que cela ! Cela est, certes, vital pour les personnes vivant en dessous du seuil de pauvreté, mais rehausser le pouvoir d’achat de tous nos concitoyens ne serait qu’une pure fuite en avant. Si la priorité est d’agir sur le coût des dépenses fixes (logement, transports, énergie), regardons comment se portent les prix de la grande distribution (hypermarchés, supermarchés, discount).

Encore récemment, les mêmes produits des mêmes marques coûtaient nettement moins cher dans les circuits de grande distribution de nos voisins européens que chez nous, parfois dans des proportions aberrantes ! Pourtant, le secteur de la distribution fut de nombreuses fois réglementé en France afin d’abaisser les prix des produits de première nécessité. Encourager la concurrence accrue entre les distributeurs devait servir les intérêts du consommateur. Mais avons-nous un seul instant pensé aux producteurs ?

Déjà à la sortie de la Seconde Guerre mondiale, l’ordonnance de 1945 fixa une longue liste de produits les plus courants dont les prix étaient administrés, une façon de lutter contre le marché noir. Lorsque cela ne fut plus estimé nécessaire, l’ordonnance Balladur du 1er décembre 1986 libéra les prix de ces biens en interdisant toutefois les ventes à perte (la facture de vente avec éventuellement marge avant en précise le montant). Par la suite, la loi Galland de 1996 visera à interdire aux grandes surfaces la possibilité intégrer les ristournes arrières de leurs fournisseurs dans le prix de vente aux consommateurs, en espérant ainsi ne pas introduire un déséquilibre qui serait préjudiciable au petit commerce.

Or la loi Galland eut pour effet contraire d’accroître les bénéfices des grandes surfaces, lesquelles profitèrent des marges arrières, ou dit autrement, des rétro-commissions, des remises différées, des autres avantages financiers…. En 1999, les industriels accusèrent les grandes surfaces en situation quasi monopolistique de dérapages.

Prenant le contre-pied de la loi Galland, plusieurs lois de libéralisation des prix furent votées, contribuant à développer la concurrence des grandes surfaces au service des consommateurs.

La loi Dutreil II (2005) et la loi Chatel (2007) permirent aux distributeurs d’intégrer progressivement leurs marges arrières dans le calcul du seuil de leur revente à perte.

La loi de modernisation de l’économie du 4 août 2008, inspirée par la commission Attali, complétera le dispositif en instaurant la liberté tarifaire entre fournisseurs et distributeurs tout en obligeant les distributeurs à payer plus rapidement les petits producteurs, en assouplissement des règles d’urbanisme commercial pour les supermarchés tout en renforçant les moyens des élus locaux.

Ces politiques visèrent à déréguler les prix sur les produits de première nécessité des grandes surfaces, le Prix de Vente Consommateur. Christine Lagarde lancera un observatoire des prix et des marges pour s’assurer du résultat.

****

Pour autant, les négociations entre fournisseurs et distributeurs peuvent-elles être considérées comme étant équilibrées lorsque, seuls six grands groupes se partagent les surfaces de ventes des hypermarchés face à un tissu de PME constitutif de l’industrie agro-alimentaire hexagonale ? Ces PME auront-elles vraiment leurs mots à dire ? 

Christian Jacquiau, auteur des Coulisses de la grande distribution, expliquera: « Imaginez le marché comme un sablier : en haut, vous avez les fournisseurs avec leurs marchandises, leur but est d’atteindre, en bas, les consommateurs. Mais pour cela, ils sont obligés de passer par un goulot d’étranglement très étroit : les hypermarchés. Ceux-ci profitent de leur situation privilégiée face aux PME qui leur vendent les produits afin d’avoir les prix les plus bas possibles. »

Résultat : le moins-disant l’emporte, et, écrasés par la pression de la grande distribution et les fameuses marges arrières, les petits producteurs mettent la clef sous la porte, quand les gros délocalisent dans des pays où la vie – et le coût du travail – sont moins chers. Il faut contenir les prix et revaloriser les bas salaires, proclamerons d’une seule voix les forces de Gauche, mais prennent-elles seulement en compte le fait que nous consommons des produits importés ?

Notre balance commerciale est lourdement déficitaire et les perspectives françaises en matière d’exportations ont peu de chance de s’améliorer !  Nos parts de marché diminuent régulièrement, certes en raison de la forte concurrence des pays émergents, mais aussi sur un rythme plus élevé que celui des principaux pays de la zone euro. Cela signifie que la compétitivité des entreprises françaises est insuffisante. Les grandes entreprises du CAC 40 dont l’essentiel des activités se situe désormais hors de l’Hexagone s’en sortent, cependant la France manque cruellement de grosses PME de plus de 500 salariés qui soient en mesure de fabriquer des produits de qualité sur les créneaux les plus porteurs. 

Les écologistes répondront qu’il faut commencer par relocaliser les activités en privilégiant celles qui sont fortement créatrices d’emplois et écologiquement soutenables. Cela peut fonctionner dans certains secteurs ; mais dans la grande distribution, comment faire lorsque les frontières sont ouvertes ?

Mieux flécher les aides de Bruxelles, oui, certainement, mais cela ne suffira pas. Faut-il surtaxer les produits importés, fabriqués à bas coût et pollueurs ? Cela serait injuste socialement pour les ménages aux faibles revenus. Ou au contraire supprimer la TVA sur les produits de première nécessité ? Il n’est pas évident que cette mesure puisse relancer notre système productif. Supprimer le système des marges arrières et permettre aux producteurs de définir le prix de vente aux consommateurs (comme pour les livres) suivant la proposition de Christian Jacquiau ? Laver les cerveaux de nos concitoyens pour qu’ils n’achètent plus que des produits locaux dans des coopératives bio au fin fond du Larzac ?

Dans une économie ouverte, il aurait fallu restaurer les marges des producteurs français qui sont plus faibles que celles de leurs concurrents européens, en raison de la fiscalité et des charges sociales, et faciliter davantage l’investissement écologiquement soutenable. 

Pourquoi ne pas remplacer l’impôt sur les bénéfices des sociétés par un impôt sur les dividendes des actionnaires-ménages, afin qu’ils investissement durablement dans l’économie capitalistique, comme le suggère Jean Peyrelevade ? Pourquoi ne pas supprimer la taxe professionnelle assise sur les valeurs locatives des équipements par une taxe carbone sur les activités polluantes ? 

___

Nb : L’hypothèse d’atomicité de la concurrence parfaite n’est, en général, pas vérifier lorsque le nombre de producteurs concurrents est faible, ou lorsque la taille est inégale. Des modèles d’oligopoles ont été développées lorsque les coûts fixes apparaissent à la production et donnent lieu à l’existence d’économies d’échelles. Les entreprises identiques se font concurrence par la quantité et ne formulent pas d’hypothèse sur la quantité produite par les autres firmes qui est une inconnue (Cournot). Il y a rationnement de la demande et le prix est supérieur au coût marginal de production, le surcoût étant d’autant plus important que la demande est captive. L’équilibre de constitue pas un optimum de Pareto et la perte de bien-être est en 1/n, où n est le nombre d’entreprises constituant l’oligopole. Et lorsqu’une entreprise a une position de leader, elle anticipe la réaction des autres entreprises et se comporte comme un monopole sur la demande résiduelle (Stackelberg). Cette situation est sous-optimale mais est plus favorable pour le consommataeur que le duopole de Cournot.

Jacquiau, C., Les coulisses de la grande distribution, Albin Michel, 2000

8 février 2009

Société de défiance – société utopique

Publié par alias dans Economie & clusters

Esprit public et Terra Nova inviteront Jacques Attali  afin de débattre de son dernier ouvrage “La crise, et après ?”, le mercredi 11 février à 19h à la Mairie du 3e. Et si celui-ci vous laisse sur votre faim ou que vous éprouviez une soif de justice face aux dérives financières, il vous sera toujours possible de visionner le portrait d’Eva Joly, le samedi 7 mars à 17h15 sur Arte.

Le livre de Jacques Attali nous dit ceci : ce n’est pas de la dette publique mais de la dette privée, et plus exactement de l’endettement des ménages les plus pauvres sur leur logement, victimes de spéculateurs, qu’apparut la crise outre atlantique. Jacques Attali souligne que lorsque la dette privée des spéculateurs devient une dette publique, l’injustice est si flagrante que la rébellion collective pourrait bien sonner le glas du marché et de la démocratie, au risque d’annoncer le retour vers un nationalisme liberticide.

La crise est telle que toute l’idéologie de nos sociétés individualistes et déloyales pourrait être remise en cause, chacun prenant subitement conscience que ce qui est légal n’est pas forcément moral. Sa mission au sein de « la commission de réforme sur les freins à la croissance française » vise à identifier tous les obstacles à la croissance « depuis le mode de sélection des élites dirigeantes, jusqu’aux rentes de situation des professions réglementées, en passant par les difficultés de la recherche, les obstacles à la création d’entreprise et à leur financement, les insuffisances de la mobilité sociale et les limites à l’accroissement de la population active ».

A l’heure actuelle, voici ce qui pourrait bien nous attendre au tournant : des frontières qui se referment, des nations qui se replient, toutes prises de risque deviendraient suspectes, les libertés publiques s’en trouveraient brimées. La figure spectrale d’un nouvel Etat théocratique placé sous l’emprise de l’Extrême Droite pourrait bien pointer le bout de son museau, un autre 21 avril en perspective. Est-il possible que cette crise débouche sur une guerre mondiale, à l’issue de laquelle, qui sait, les prêts de guerre faciliteront l’apparition d’une nouvelle monnaie forte et hégémonique ? Comment parer le coup ?

(Lire la suite…)

12345

POUR LA VERITABLE LIBERTE |
kamalamari |
POI - comité Les Ulis Orsay |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | regismorra
| Notre si belle et si chère ...
| Allant-Vert