Solutions au développement des entreprises du Nord-Pas de Calais

Plus de 50 projets ont associé des savoir-faire d'entreprises pour concevoir et développer des produits et process nouveaux...
Pourquoi pas vous ?

Venez à la rencontre des partenaires avec lesquels vous pourrez construire vos projets.


www.cap-action.fr

jeudi 23 décembre 2010

CAPTAUCOM : DES CAPTEURS AUTONOMES ET COMMUNICANTS

Après 5 ans de travaux de R&D, le programme Captaucom a permis l’élaboration de 3 prototypes répondant aux attentes des trois entreprises impliquées dans le projet.
Lancé en 2005, le projet Captaucom visait le développement de capteurs autonomes et communicants. À l’issue de ce projet, en décembre 2010, 3 prototypes ont été élaborés en réponse aux attentes précises des 3 industriels du programme : le groupe Seb, Somfy et NTN-SNR. Labellisé par le pôle Arve Industries (1), Captaucom a réuni, aux côtés des industriels, 2 organismes de recherche (CEA et CSEM), 2 centres de compétence (Mind et Cetim) et 1 réseau technologique (Thésame).

Trois prototypes pour trois cahiers des charges 


Pour le groupe Seb, un prototype d’appareil de petit électroménager autonome (dispositifs de mesures et de commande) a été développé. Pour NTN-SNR Roulements, c’est un prototype de système de surveillance autonome et communiquant de roulement qui a été élaboré. Enfin, pour Somfy, le programme a débouché sur un dispositif autonome de sécurité et de surveillance des ouvrants (capteurs et commandes de fermeture et de protection solaire du bâtiment).

mardi 21 décembre 2010

Les allemands travaillent sur une voiture électrique à 5000 euros

 voiture électrique
Selon les chercheurs allemands, pour atteindre un tel tarif, les industriels devront adopter les méthodes de la fabrication modulaire. Une solution optimale pour produire en grande série des voitures électriques à un prix abordable.
La fabrication des voitures électriques fait l’objet de recherches intensives en Allemagne. Le Plan national de développement  lancé en 2009 par le gouvernement fédéral, qui a fait du développement des véhicules électriques une priorité, vise un parc d’un million de voitures électriques en 2020 (sur 41 millions de véhicules circulant en Allemagne). Pour atteindre cet objectif, les spécialistes de Wittenstein, une société spécialisée dans la fabrication des systèmes d’entraînement pour l’automobile, préconisent l’utilisation de nouvelles méthodes d’ingénierie. 
« La plupart des voitures électriques ne sont rien de plus que des voitures existantes sur lesquelles le moteur à combustion a été remplacé par un moteur électrique », explique Bernd Schimpf, directeur du développement de Wittenstein. « Elles sont fabriquées individuellement ou en petite série, avec des composants chers,  ce qui explique leur prix prohibitif. »

Les chercheurs de l’Institut RWTH d’Aix-la-Chapelle ont lancé en 2009 un projet de recherche dont l’objectif est de mettre au point de nouvelles méthodes pour la fabrication des voitures électriques. Baptisé «street-scooter", ce projet (www.rwth-aachen.de) vise la prise en compte de technologies de production dès la phase de développement du véhicule. Un programme qui s’appuie sur trois points clés. Premièrement, la réalisation d'une structure de coûts pour atteindre un prix de vente de 5000 euros (sans la TVA) et de location de batterie. D'autre part, il faut assurer la mise en place d'un réseau de fournisseurs. 

Enfin, il faut créer une structure de production efficace et cartographier les processus correspondants. La recette préconisée par les chercheurs allemands est de diviser le véhicule en plusieurs modules, à savoir, la face avant, l’espace du conducteur, l'habitacle arrière et le module arrière (le coffre). Le processus d’assemblage classique sera remplacé par la fusion de ces modules entièrement pré-équipés et pré-testés et qui peuvent provenir de différents fournisseurs. Ce qui facilite la fabrication des modèles différents. Selon Wittenstein, il faudra assurer des kits différents pour les moteurs, les transmissions et les variateurs électroniques avec différents niveaux de performances.

« Cela semble simple, mais cette démarche exige un effort important de développement et une coordination sans faille pour trouver le bon partenaire technologique », explique Heiko Haag, spécialiste chez Wittenstein. 

De nouvelles solutions verront le jour. Les moteurs électriques peuvent par exemple, être installés directement dans les moyeux de roues. Résultat : tous les composants habituels de la chaîne cinématique -arbres de transmission, les différentiels et les transmissions- ne sont plus nécessaires. Wittenstein a développé également un système électronique intelligent de surveillance qui contrôle différents paramètres : la haute tension, la tension auxiliaire et le moteur. Selon les spécialistes allemands le premier prototype sera disponible en 2011, la production en petite série démarrera en 2012 et celle en grande série, en 2014.

L’existentialisme est un automobilisme


Y a-t-il un pilote dans la voiture ? Aujourd’hui oui, mais demain?
La Commission Européenne finance un projet d’infrastructure pour des voitures capables de se conduire toutes seules: baptisé SARTRE (pour Safe Road Trains for the Environment), le système permettra à des voitures de voyager de manière autonome en convoi. Et les tests commencent maintenant.
Sartre est conçu pour être utilisé sur des longs trajets comme ceux parcourus sur autoroute. Les voitures communiqueront entre elles grâce à des systèmes radio et des capteurs. Une voiture de tête emmènera tout un convoi de manière automatique.
A l’approche de sa destination, un conducteur aura la possibilité de décrocher et se détacher du train. Le convoi sera alors capable de se recomposer dynamiquement. Cela vous permettra enfin de lire, manger, dormir ou regarder un film sur autoroute sans avoir à lever de temps en temps les yeux sur la route.
La première année du projet SARTRE a consisté à concevoir le système et à éliminer les bugs. Les deux années à venir sont dévolues aux tests. Ils commencent dès ce mois-ci avec deux voitures et prévoient de passer à cinq l’an prochaine. L’expérience se poursuivra jusqu’en 2012. On saura sans doute alors si le système est suffisamment au point pour être déployé auprès du public.

Le réseau électrique amorce sa révolution intelligente en commençant par les compteurs

On connaît bien maintenant le "compteur intelligent" qui permet un suivi minute par minute des consommations. Mais ce n'est qu'un aspect du "réseau intelligent", qui implique de gérer bien d'autres contraintes coome par exemple de collecter et de gérer des masses considérables de données.

Smart Grid - Crédit: Union  EuropéeneAvec le lancement de l'expérimentation Linky, 300 000 foyers vont être équipés de compteurs intelligents avant une généralisation en 2012. Pourtant, ce déploiement des Linky n'est qu'un pré-requis à l'avènement d'un réseau intelligent.

Connaître en temps réel la consommation des utilisateurs et pouvoir effectuer des opérations à distance constituent un smart-metering -à savoir une lecture intelligente des compteurs-, déjà installé dans de nombreux pays, comme l'Italie ou les Etats-Unis. Hier, 35 millions de points de consommation en France n'étaient relevés que tous les six mois. Demain, ils pourront l'être toutes les dix minutes! Mais, au-delà de cette remontée de données, un réel smart-grid devra optimiser bien d'autres contraintes subies par le réseau. Productions décentralisées, perspectives nouvelles de stockages, voitures électriques: le nombre de données à agréger et à analyser va exploser. 

DES OUTILS INFORMATIQUES COMPLEXES 

Pour relever ce défi des smarts-grids, des outils informatiques très complexes vont être implémentés. Ils devront permettre d'optimiser  les évolutions. Quelles sont ces évolutions ?

D'abord, l'intégration des énergies décentralisées. Celles-ci, en particulier solaires et éoliennes, sont en plein boom. Elles sont très chères aux défenseurs des énergies vertes. De nature intermittente, ces énergies nuisent parfois à la stabilité du réseau, pouvant provoquer des coupures, comme cela a déjà été le cas en Allemagne. Grâce à un meilleur suivi du réseau, des arbitrages plus précis entre le soutirage d'énergie, l'injection de renouvelables ou le stockage pourra être fait de manière efficace.

En parallèle, les promesses du stockage de l'énergie pourront permettre l'usage à pleine puissance des énergies renouvelables en stockant l'électricité produite à des moments où elle n'est pas nécessaire, palliant de cette manière au principal défaut des énergies décentralisées. Si d'autres avancées techniques sont encore à l'étude, il est probable que le stockage par pompage hydraulique (consistant à utiliser l'énergie électrique disponible pour emmagasiner de l'eau qui produira plus tard de l'hydroélectricité) et l'utilisation des batteries des véhicules électriques lorsqu'ils sont inutilisés, seront les premières à voir le jour. Mais pour que le stockage joue à plein, il faudra bien les intégrer à la logique de smart-grids afin de bien réinsérer l'énergie et faire émerger le fameux concept de vehicle-to-grid (V2G).

Enfin, le business model des offres d'effacement des pics de demandes reste toujours à trouver. On peut utiliser la voie tarifaire, en proposant des tarifs avantageux aux clients s'engageant à limiter leur consommation en période de forte demande, ou la voie technologique en éteignant sélectivement des appareils énergivores pendant une courte durée (effacement dit « diffus »). Dans l'un ou l'autre cas, lisser les pics de consommation permet d'éviter les saturations de réseau, en particulier dans les régions en bout de réseau (comme la Bretagne ou la région PACA).

De plus, les pics de consommation nécessitent d'avoir recours à une électricité dite de pointe, généralement produite par des moyens de production très carboné. Lisser le pic aura donc un impact direct sur l'environnement et les émissions de CO2. Aux Etats-Unis par exemple, 5% de baisse des pics de consommation éviterait l'utilisation de 625 centrales thermiques, soit 3M$ d'économies annuelle!

DES PROBLEMES A TRAITER ENSEMBLE

Ainsi, toutes les contraintes subies par le réseau devront désormais être traiter de façon corrélée pour mieux en tirer profit: rien que l'exemple du véhicule électrique, autrefois perçu comme une contrainte réseau et maintenant transformé en variable d'ajustement des réseaux de distribution, montre que les recouvrements entre le stockage, les énergies renouvelables et l'effacement des pointes sont forts et qu'ils ne peuvent plus être traités indépendamment les uns des autres. Il faut donc, au-delà de l'agrégation des données multiples, mettre en place des systèmes d'information qui permettent leur analyse et des plans d'actions associés. En respectant bien sûr la vie privée des acteurs du réseau. Ils restent à inventer, mais l'incitation est forte ! Des marchés sont à prendre : les investissements s'élèvent à plus de 7 milliards de dollars pour la Chine et les Etats-Unis, rien que pour 2010....

Les robots génétiques inventeront leurs propres formes

Dites-lui « construis-moi un robot capable de monter un escalier » et, en utilisant seulement quelques composants simples et déjà existants, l’ordinateur, avec son algorithme « génétique », trouvera comment les assembler, à la manière d’un jeu de Lego. Il suffirait de disposer d’un système automatique d’assemblage – ce qui est déjà possible – pour créer une population de robots adaptatifs…
Au salon Euromold qui vient de se tenir à Francfort, Andreas Fischer et son équipe ont montré de curieux assemblages de tubes de quelques dizaines de centimètres de longueur, maintenus et articulés ensemble par des rotules. De multiples configurations sont possibles et l’ensemble peut devenir mobile à l’aide d’un soufflet dont certains tubes sont équipés. Il ne s’agit pas d’un nouveau jeu mais d’une présentation de recherches effectuées à l’institut d’ingénierie et d’automatisme (IPA) de l’Institut Fraunhofer. Ces robots, en effet, n’ont pas été conçus par un cerveauhumain mais par un logiciel. Le résultat est un fichier au format classique de la CAO et cet outil informatique peut donc être interfacé avec un système de production automatisé.
L’équipe d’Andreas Fisher baptise ces créations les « robots génétiques ». Pourquoi génétiques ? Parce que leur mise au point est due à un « algorithme génétique ». Le logiciel génère aléatoirement de multiples possibilités d’assemblage, modélise le résultat obtenu, le confronte à un objectif et sélectionne les meilleures formules. En somme, un principe demutation-sélection.
C’est bien cela dont il s’agit. L’équipe allemande, qui parle de « bionique », s’appuie sur un logiciel mis au point par Hod Lipson et Jordan Pollack pour leur « projet Golem ». Hod Lipson travaille depuis longtemps sur les robots capables de se répliquer et d’étudier leurs propres caractéristiques physiques (le même a récemment réalisé un logiciel capable de déduire des lois physiques de faits expérimentaux, bref un robot scientifique…). L’autoréplication de machines est un champ d’études communément visité depuis plusieurs années.
Un robot du projet Golem. Sa solution pour avancer sur le sable est originale mais efficace.
Un robot du projet Golem. Sa solution pour avancer sur le sable est originale mais efficace. © The Golem Project
Des robots qui se débrouillent
Comme point de départ, l’algorithme part d’un cahier des charges simple et concis : par exemple « marcher le plus efficacement possible sur une surface plane », explique Andreas Fischer. Mais on peut aussi demander le franchissement d’un escalier, voire de nager dans l’eau. Le logiciel met ensuite en jeu une simulation des phénomènes physiques, prenant en compte la gravité ou les forces de frottement.
Ce principe de l’autoapprentissage à l’aide de simulateurs n’est pas nouveau non plus. L’équipe d’AnimatLab (aujourd’hui intégrée à l’Isir), menée par Agnès Guillot et Jean-Arcady Meyer, a déjà à son actif de nombreuses réalisations de ce genre : des fourmis virtuelles ont appris à marcher (sur six pattes ou moins) et d’autres logiciels à piloter un hélicoptère en vol stationnaire ou à tenir une tige en équilibre sur le bout du doigt (et même deux tiges).
En final, l’algorithme propose plusieurs possibilités entre lesquelles l’utilisateur humain effectuera le choix final. Il ne restera plus qu’à lancer la fabrication. « L’algorithme peut trouver des solutions surprenantes – des "mutations" – que n’auraient pas nécessairement imaginé le concepteur humain » estime Andreas Fisher. C’est ce qu’avait fait la fourmi virtuelle d’AnimatLab en réussissant à se déplacer avec une seule patte…

Le Monowalker va vous décharger un peu



Ne faites pas attention à l’homme des bois souriant sur cette photo. Regardez plutôt derrière lui, il s’agit du Monowalker, une sorte de brouette inversée qui vous permet de tirer 50 kg assez facilement.

Bien sûr, il coûte 1.000$, mais c’est du solide qui vous allègera. Vous pouvez aussi le porter en sac à dos, au cas où le terrain est trop impraticable. Et si vous êtes le genre de type qui part faire des balades très longues avec une tonne d’équipement (photographes, chasseurs, criminels en cavale jusqu’à ce que vous puissiez prouver votre innocence) ça peut valoir le coup.

Pour que les camions ne refassent pas le pont



« Si vous frappez ce panneau, vous frapperez ce pont ».

Simple et redoutablement efficace. Je sais qu’il existe parfois des barres rouges et blanches qui ont la même fonction, mais je trouve ce système beaucoup plus simple encore.

Véléance décroche le Premier Prix du concours Med’Innovant

Ce prix vient récompenser leur positionnement initial qui vise à inventer une nouvelle mobilité urbaine. Leurs produits, avec en tête de file le Tri’Ode, permet à chacun de conserver les bénéfices de la mobilité, de la simplicité et de l’autonomie qui ont fait le succès de l’automobile sans la pollution, l’encombrement et le coût. 

Depuis la création de la société en 2006, chaque décision de la société concilie ces 3 objectifs : l’écologie, la sécurité, l’économie. 
Le concours MED'INNOVANT récompense des projets innovants et durables en faveur de l’amélioration de la vie quotidienne des habitants ou salariés du périmètre d’Euroméditerranée. 

En savoir plus sur Véléance : http://www.veleance.fr/ 


 

Des lunettes pour visiter un lieu et surfer en réalité augmentée

Le système mis au point par des chercheurs finlandais affiche des informations provenant d'une base de données ou d'Internet concernant les personnes rencontrées. Il reconnait aussi les codes 2D.



Pour permettre à des visiteurs d’obtenir des informations sur les personnes et les lieux rencontrés dans un nouvel environnement, des chercheurs de l’université d’Aalto ont élaboré un prototype exploitant la réalité augmenté. Baptisé Virtual Laboratory Guide, il se présente en fait sous la forme de lunettes équipées d’un système de pistage du regard (eye-tracking) et d’un écran affichant des informations en surimpression de la réalité. Un outil de reconnaissance faciale permet d’identifier en temps réel une personne sur lequel le regard de l’utilisateur s’est arrêté. A condition toutefois qu’une photo de celle-ci ait préalablement été insérée dans une base de données.
Naviguer dans un menu associé à chaque personne
Son nom apparait alors au dessus de son visage ainsi qu’une série d’autres informations formant un menu dans lequel il est possible de naviguer via le regard. Plus l’utilisateur regardera avec intensité une personne ou un objet de son environnement, plus le prototype cherchera à lui fournir des informations sur celui-ci. Par exemple, un visiteur pourra en savoir plus sur les recherches d’un scientifique qui passerait dans son champ de vision, comme le montre une vidéo de démonstration réalisée par l’équipe. Le système est en fait relié à trois serveurs chargés d’analyser les données visuelles ou auditives provenant du prototype et de leur associer d’autres informations provenant de la base de données. Les chercheurs expliquent que leur système est également capable d’aller récupérer des informations sur Internet et notamment via les réseaux sociaux.
Beaucoup à faire avant d’envisager une commercialisation
La version prototype ne permet toutefois que d’obtenir des informations de base, comme par exemple le nombre d’amis d’une personne sur Facebook. Si la navigation se fait essentiellement par le biais du regard, un des serveurs est chargé de la reconnaissance vocale et il est donc possible d’interagir avec le prototype de différentes manières. Celui-ci est également capable de reconnaître les codes-barres 2D, et il est donc possible d’indiquer par exemple le planning d’une salle de cette manière. “Le prototype a été testé avec succès en laboratoire”, explique Jorma Laaksonen qui a contribué au projet. “Cependant il reste beaucoup à faire avant de pouvoir envisager une commercialisation”. Il n’est par exemple pas possible pour l’heure de reconnaître une personne qui serait totalement inconnue du système.

L’éclairage professionnel bascule vers la high-tech

UNE_eclairage-pro-high-tech_101215
Quel est le point commun entre un entrepôt, un hôpital et une école ? La moitié au moins de leur consommation d’électricité est due à… l’éclairage ! Bonne nouvelle, il est possible de diviser ces dépenses par quatre grâce à de nouvelles sources lumineuses bardées d’électronique et pilotées par des systèmes d’information de plus en plus intelligents. Lumière sur ce secteur discret pourtant en pleine révolution.
« Il est déjà possible de multiplier par quatre l’efficacité énergétique des systèmes d’éclairage », dévoile Lionel Witkowski, Directeur général de TRILUX France, un des leaders français du secteur. Pour arriver à un tel résultat, toute la filière travaille de concert : producteurs de sources lumineuses, designers de l’électronique embarquée, fabricants de luminaires, développeurs de systèmes de régulation et de GTB (Gestion technique des bâtiments).
Sources lumineuses : vers le tout LED ?
CORPS_leds_101215
« Un virage conséquent du marché vers la technologie LED est probable à moyen terme », prédit Lionel Witkowski. Une vision qui pourrait paraître surprenante alors que les LEDs représentent aujourd’hui moins de 5 % des sources lumineuses. «Actuellement, la technologie LED répond à la loi de Moore (ndlr : multiplication par deux des performances tous les 18 mois). Il est acquis que l’efficacité des LEDs, qui talonne déjà celle des lampes à décharge, les dépassera rapidement, et largement !», ajoute Lionel Witkowski. Seuls deux freins ralentissent temporairement cette arrivée massive. Tout d’abord, l’absence de normes, qui entrave les échanges techniques entre les acteurs de la filière. Et surtout des prix encore supérieurs aux autres lampes, qui allongent les retours sur investissement.
Parallèlement à la rupture technologique des LEDs, les lampes à décharge continuent leur progression vers une meilleure efficacité énergétique, notamment grâce à la généralisation des ballasts électroniques. « L’arrivée de l’électronique dans les lampes à décharge a permis non seulement d’économiser 20 à 25% d’énergie, mais aussi d’augmenter leur durée de vie », explique Bernard Duval, Directeur technique du Syndicat de l’Eclairage. Cette électronique embarquée est d’autant plus stratégique qu’elle permet littéralement de piloter l’intensité lumineuse, et donc la consommation de chaque lampe, ouvrant ainsi la porte à la régulation de puissance. C’est pourquoi les principaux fabricants de luminaires développent leurs propres composants. Ils sont d’ailleurs très en avance sur la réglementation. En effet, si les ballasts ferromagnétiques seront interdits en 2017, les fabricants ne proposeront plus que des modèles électroniques dès juin 2011.
Luminaires : un investissement rentable
Le couple lampe-ballast ne suffit pourtant pas à obtenir la division par quatre de la consommation. « La conception du luminaire est fondamentale. D’abord l’optique doit correspondre au besoin d’éclairement et aux contraintes des lieux. Nous choisissons donc au sein de notre gamme les modèles adaptés au métier de chaque client, et même à chaque poste de travail. Ensuite, la qualité des matériaux joue un rôle primordial. Nous avons ainsi développé un réflecteur multicouches contenant de l’argent qui augmente jusqu’à 98 % les valeurs de réflexion des optiques », explique Lionel Witkowski. Au final, entre un luminaire low-cost et son équivalent haut de gamme, l’efficacité lumineuse peut varier du simple au double. Les retours sur investissement sont alors atteints en quelques années.
Une autre rentabilité, plus difficile à quantifier, concerne les ressources humaines : «Les industriels par exemple ont bien compris qu’un poste de travail bien éclairé diminue la fatigue visuelle du personnel, et par conséquent les taux de rebus », analyse Lionel Witkowski.
Régulation : une approche globale de l’éclairage
Ainsi les utilisateurs sont-ils les premiers bénéficiaires de ces éclairages techniquement très efficients. Mais ils en sont aussi le point faible : inutile d’investir dans des luminaires dernier cri si c’est pour laisser la lumière allumée 24h/24 à la puissance maximale ! « En ajustant l’intensité lumineuse en fonction de la lumière du jour, on gagne déjà 20%. Ajoutez la détection de présence, et le gain total peut atteindre 55%. Quelques économies supplémentaires sont aussi possibles en améliorant la réflexion lumineuse des murs, ou l’orientation des bâtiments neufs », détaille Lionel Witkowski.
CORPS_eclairage-high-tech_101215
Capteur de présence compatible DALI, Philips.
Plusieurs approches technologiques permettent cette exploitation intelligente. La plus courante consiste à installer des capteurs de présence et d’intensité lumineuse, reliés à une centrale dédiée pilotant des zones d’éclairage prédéfinies. On trouve également des luminaires totalement autonomes, embarquant leurs propres cellules de détection, ainsi que des règles de fonctionnement prédéterminées. Mais la grande tendance pour les prochaines années réside dans l’intégration totale de l’éclairage dans la GTB (Gestion Technique des Bâtiments). Capteurs et luminaires sont alors mis en réseau (norme DALI - Digital Addressable Lighting Interface), chaque point lumineux pouvant être contrôlé individuellement en fonction des besoins immédiats des utilisateurs. Au menu : interconnexion avec les systèmes de contrôle d’accès du personnel, possibilité pour chacun de gérer l’éclairement de son poste de travail, monitoring en temps réel, maintenance facilitée (détection a distance des lampes hors service par exemple)… Lumineux !

Le marché de l’éclairage hors résidentiel
Estimé à 1,4 milliards d’euros, le marché français du matériel d’éclairage hors résidentiel progresse d’environ 5% par an depuis 10 ans. Emmenées par Philips, qui détient près d’un tiers du marché, quelques dizaines d’entreprises se partagent la fourniture des sources lumineuses (lampes, LEDs), des luminaires, et depuis peu des systèmes de régulation. Seuls 3% des chantiers concernent la rénovation (Source : Syndicat de l’Eclairage).

EAU : UN PROCÉDÉ DE DESSALEMENT À BAS COÛT

Oasys Water a développé une nouvelle solution pour dessaler l'eau. Elle associe les procédés thermique et d'osmose inverse. La société prévoit un pilote en 2011.


Commercialisation fin 2011Le britannique Oasys Water a développé un nouveau procédé de dessalement de l'eau, rapporte le Technology Review, magazine du Massachusetts institute of technology (MIT). Un pilote est prévu pour 2011 pour un début de commercialisation dans un an.

Réduire les coûts

La technologie Oasys combine osmose inverse et procédé thermique pour réduire les coûts de dessalement. Le principe : d'un côté d'une membrane, se trouve de l'eau de mer. De l'autre, une solution contenant de fortes concentrations de dioxyde de carbone et d'ammonique. L'eau de mer migre vers cette solution. Au passage, la membrane bloque les particules de sel et impuretés. Le mélange obtenu est chauffé. Ammoniaque et CO2 s'évaporent, laissant à disposition une eau dessalée. 

Dix fois moins d'électricité

Selon ses inventeurs, cette technique consomme moins d'énergie que dans le procédé thermique classique. Celui-ci consiste à chauffer l'eau de mer entre 70 et 100°C pour en récupérer le sel. Ici, le mélange (avec le CO2 et l'ammoniaque) n'est chauffé qu'entre 40 et 50°C. De même, toujours selon Oasys, leur procédé est moins énergivore que l'osmose inverse (dix fois moins d'électricité consommée). L'osmose inverse requiert en effet de très fortes pressions pour forcer le passage dans la membrane. Ici, la migration se fait plus "naturellement" grâce aux différences de composition des deux solutions de part et d'autre.

Thomas Blosseville

LES RÉSEAUX D'EAU PILOTABLES À DISTANCE

Hydrelis a sorti une nouvelle gamme de "disjoncteur d'eau". Le but est d'automatiser le pilotage des réseaux d'eau. Dernière nouveauté : le disjoncteur est téléopérable.





Un disjoncteur autonome en énergieComme le disjoncteur électrique, mais pour l'eau. Hydrelis a conçu un disjoncteur pour contrôler les flux d'eau. Son produitClip-flow est désormais actionnable à distance grâce à une liaison Ethernet ou GPRS.

Des piles au lithium
Principale différence avec son alter ego électrique, Clip-flow sert à piloter l'eau... "et n'aime donc pas l'électricité", souligne Thierry Sartorius, président d'Hydrelis. Pour y remédier, sa société a développé une électronique à ultra faible consommation : "moins qu'une montre à quartz", assure-t-il. "Avec ses piles au lithium, notre disjoncteur d'eau peut fonctionner pendant 10 à 15 ans". 

Fonctions automatiques

L'objectif est de l'associer à une vanne Switch-flow. Elle-aussi conçue par Hydrelis et autonome en énergie. L'idée est d'automatiser certaines fonction pour maitriser la consommation d'eau des bâtiments, collectivités, usines... Exemples de fonction : ouvrir ou fermer la conduite à une heure précise ; limiter le volume jounalier ; alerter en cas de surconsommation...

Thomas Blosseville 

Un dispositif qui produit de l'électricité à partir de la chaleur ou de la lumière

Fujitsu Laboratories a développé un dispositif qui produit de l'électricité à partir de la chaleur ou de la lumière. Destiné à alimenter des capteurs autonomes, il devrait être commercialisé en 2015.

Avec le développement des technologies de l'information, l'utilisation de capteurs, chargés de collecter des informations sur l'état d'un système (voiture, avion, corps humain, etc) et de les envoyer vers une base de données centralisée, se répand de plus en plus. Comme tout appareil électronique, ces capteurs ont besoin d'énergie pour fonctionner. Or, comme ils sont alimentés par des fils électriques, leur multiplication entraînera celle de ces derniers, ce qui peut poser des problèmes d'encombrement. Il est possible de supprimer ces câbles en ayant recours aux technologies de communication sans fil, l'alimentation électrique étant assurée par des batteries. Cependant, ces dernières ont une durée de vie limitée et doivent donc être régulièrement remplacées. Cette opération est coûteuse et n'est pas réalisable lorsque les capteurs sont localisés dans des endroits difficilement accessibles.

Pour résoudre ce problème, la recherche s'oriente vers le développement d'appareils totalement autonomes, qui fonctionnent en récupérant l'énergie ambiante (la chaleur, les vibrations, la lumière, etc.). Celle-ci n'est néanmoins pas toujours accessible en permanence sous une même forme, si bien qu'il est souvent nécessaire de combiner différents systèmes de récupération pour assurer une continuité dans l'alimentation. Ceci entraîne une augmentation du coût des dispositifs.

C'est pourquoi Fujitsu a développé une structure unique (voir figure ci-dessus) capable d'exploiter deux sources d'énergie. Elle est constituée de deux groupes de semi-conducteurs organiques, l'un donneur, l'autre accepteur. Ceux-ci sont reliés entre eux par deux circuits parallèles, l'un permettant de produire de l'électricité par conversion de l'énergie lumineuse, l'autre par l'exploitation d'un gradient thermique. Les deux circuits ne peuvent être sollicités simultanément.

Conversion des vibrations en électricité

Le professeur UENO Toshiyuki de l'Université de Kanazawa a conçu un générateur de petite taille qui produit de l'électricité à partir de vibrations. Selon le chercheur, sa densité de puissance, de 22 mW/cm3, est vingt fois supérieure à celle des générateurs de ce type développés jusqu'à présent.

Le principe de fonctionnement du dispositif repose sur la propriété de magnétostriction inverse. La magnétostriction est la capacité d'un matériau à se déformer sous l'effet de la variation d'un champ magnétique. Inversement, une déformation du matériau modifie sa susceptibilité magnétique (c'est-à-dire capacité à s'aimanter) et donc le champ magnétique dans lequel il se trouve. Le professeur UENO utilise du galfenol, un alliage de fer et de gallium développé par la marine américaine pour améliorer la sensibilité des sonars, et qui possède cette propriété.

L'appareil développé par le chercheur mesure 2 mm x 3 mm x 12 mm. Il est constitué d'un aimant et de deux bâtonnets parallèles de galfenol, autour desquels est enroulée une bobine de fil conducteur. Une extrémité des deux bâtonnets est fixe, l'autre est attachée à un poids mobile. Lorsque le poids oscille, il exerce alternativement une pression sur un des bâtonnets et une tension sur l'autre, entraînant leur déformation. La variation du champ magnétique qui en résulte induit un courant électrique dans la bobine. Dans les conditions de l'expérience, le professeur a ainsi réussi à obtenir une puissance maximale de 1,56 mW pour une fréquence de vibration de 357 Hz.

Le professeur a choisi d'utiliser le galfenol, une première pour ce genre d'application, du fait de sa ductilité, qui le rend facile à usiner. De plus, sa température de Curie (température au-delà de laquelle il perd son aimantation spontanée) élevée (700°C) permet un fonctionnement dans un grand intervalle de température (-200°C à +200°C). Le dispositif peut donc être utilisé dans des environnements qui subissent de fortes variations de température. Il est ainsi envisageable de l'utiliser par exemple pour alimenter les capteurs de pression à l'intérieur des pneus.

Un brevet unique pour l'Europe ?

La Commission européenne vient de présenter une proposition de façon à créer un brevet unique pour les Etats membres. Pour l’heure, les coûts de validation et de traduction des brevets handicapent considérablement l’Europe par rapport aux Etats-Unis.

La proposition de la Commission européenne permettrait aux Etats membres qui le souhaitent de déposer un brevet avec une seule demande, valable dans tous les pays. Les coûts très importants qu’entraînent actuellement les validations nationales puis les traductions des brevets ont un effet dissuasif sur la recherche européenne.

En effet, pour valider un brevet, l’inventeur doit demander la validation de chaque pays où il souhaite le voir protégé et pour que cette demande soit étudiée, il faut bien entendu que le brevet soit traduit. Un investissement très important que ne peuvent se permettre de réaliser la majorité des concepteurs. A titre d’exemple, à l’heure actuelle, pour valider un brevet européen auprès de 13 Etats membres de l’UE, il faut envisager 18.000 euros dont 10.000 de traduction. Précisément 10 fois plus qu’aux Etats-Unis où un dépôt de brevet revient à 1.850 euros.



La Commission cherche donc à faire avancer ce projet de brevet européen qui ne fait pas l’unanimité. Les problèmes rencontrés concernent notamment les exigences linguistiques de ce brevet. A priori, les brevets examinés pourraient être validés en anglais, en français et en allemand. Pour les inventeurs ne parlant aucune de ces trois langues, les frais de traduction (dans la langue de leur choix) seraient remboursés.

A l'heure actuelle, "seules les riches entreprises peuvent se payer ce luxe", a déclaré Michel Barnier. Le Commissaire européen au Marché intérieur poursuit : "La Commission propose que certains Etats membres puissent avancer sur le brevet unique, et j'espère qu'à terme, tous les Etats membres adhéreront à ce nouveau système. Quoi qu'il en soit, les entreprises ne seront pas discriminées : elles pourront demander un brevet de l'UE aux mêmes conditions, quel que soit leur pays d'origine”, rapporte le site Goodplanet.

Pour le moment, douze Etats membres sont impliqués dans ce projet : le Danemark, l’Estonie, la Finlande, la France, l’Allemagne, la Lituanie, le Luxembourg, les Pays-Bas, la Pologne, la Slovénie, la Suède et le Royaume-Uni. Avec le texte sur le brevet unique, la coopération renforcée est mise en place pour la deuxième fois. Ce système permet à neuf Etats membres ou plus de prendre des dispositions tout en laissant la possibilité aux autres Etats de les rejoindre plus tard.

MESURES SENSORIELLES : ALPHA M.O.S SE POSITIONNE SUR L’ENVIRONNEMENT

Bien implantée dans le secteur de l’agroalimentaire, la société Alpha M.O.S, spécialisée dans les instruments intelligents de mesures sensorielles (nez, langue et œil électroniques), oriente ses applications vers l’environnement, notamment avec le lancement de la « Solution RQ Box Anywhere » (nez électronique pour le contrôle continu des émissions d’odeurs et de polluants gazeux).
Avec l’ambition de se positionner sur le marché de l’environnement, Alpha M.O.S lance la « Solution RQ Box Anywhere » (nez électronique pour le contrôle continu des émissions d’odeurs et de polluants gazeux). La société vient également de signer un contrat majeur en Chine pour l’installation du premier réseau « cleantech » d’analyse en ligne des odeurs et des toxiques industriels.

De l’agroalimentaire à la défense 


Créée en 1993 sur le développement d’instruments intelligents de mesures sensorielles, la société réalise la moitié de son chiffre d’affaires dans le secteur de l’agroalimentaire. Sa dernière innovation, de l’« Iris Visual Analyzer » (le 1er oeil électronique au monde), est d’ailleurs dédiée à l’analyse visuelle et sensorielle de produits agroalimentaires complexes. Mais Alpha M.O.S est également présent sur les marchés de la parfumerie et cosmétique, du secteur pharmaceutique (goût des médicaments) ou encore de la sécurité et de la défense (gaz de combat par exemple). « Pour tous les domaines d’application, le même logiciel est utilisé. Chaque secteur nécessite seulement une phase des d’apprentissage de ses caractéristiques propres  » explique Jean-Claude Mifsud, PDG fondateur d’Alpha M.O.S.

Un positionnement sur le marché de l’environnement 


Pour l’avenir, la société souhaite se positionner fortement sur le marché de l’environnement. Au dernier salon Pollutec, début décembre à Lyon, Alpha M.O.S présentait la « Solution RQ Box Anywhere », basée sur la technologie de nez électronique pour le contrôle continu des émissions d¹odeurs et de polluants gazeux. « L’environnement constitue notre grand axe de développement stratégique. Tiré notamment par la demande des pays émergents en matière de contrôle de la qualité de l’air, ce secteur est voué à supplanter celui de l’agroalimentaire dans notre chiffre d’affaires » annonce Jean-Christophe Mifsud.

Trois filiales à l’étranger 


Parallèlement, Alpha M.O.S poursuit son développement à l’international. Forte de 3 filiales à l’étranger (Etats-Unis, Chine et Japon), avec laboratoire, équipes de vente et support, la société réalise seulement 10 % de son chiffre d’affaires en France. « Nous sommes actuellement engagés, aux Etats-Unis, dans une collaboration avec les autorités pour le contrôle des produits marins après les pollutions issues de la marée noire dans le Golfe du Mexique. Pour l’instant, le montant des contrats passés avec les différents États s’élève à plus d’un million d’euros. Et ça va continuer » indique Jean-Christophe Mifsud.

Vers la normalisation des perceptions sensorielles 


Autre chantier : celui de la normalisation. « Aujourd’hui, il n’existe pas de normes autour des perceptions sensorielles. Comment définit-on ce qu’est un bon café, par exemple ?  » interroge le PDG d’Alpha M.O.S. « Alors que chaque société développe ses propres outils, des efforts sont actuellement réalisés pour standardiser ces perceptions. Ce processus est plutôt avancé dans le secteur des céréales notamment. Au niveau européen aussi, les choses commencent à avancer ».