Electricité 5ème

Point 18 : Le sens conventionnel du courant électrique.

Citer le sens conventionnel du courant.

 Définition

Le sens conventionnel du courant électrique va de la borne plus à la borne moins, à l’extérieur du générateur.

 Histoire (résumé)

Historiquement, au début de l’étude de la conduction de l’électricité, les scientifiques ont pensé que les particules qui se déplaçaient dans les métaux étaient chargées positivement et ont défini en conséquence un sens conventionnel du courant comme étant le sens de déplacement des charges positives. Plus tard on a mis en évidence que ce sont très majoritairement les électrons, particules chargées négativement, qui se déplacent dans les métaux et qui permettent la circulation des courants électriques. (wikipédia)


 Histoire (plus étoffée)

voir ce site

  • Les débuts de l’electricité.
    Jusqu’à la fin du XVIIIe siècle, le terme d’électricité fut réservé aux phénomènes d’attraction ou de répulsion entre corps préalablement frottés. Ce domaine est aujourd’hui connu sous le nom d’électrostatique. L’attraction de corps légers par des objets électrisés par friction était connue depuis l’Antiquité, mais son étude n’a véritablement débuté qu’à la fin du XVIe siècle, avec les travaux du savant anglais William Gilbert, auteur du premier traité connu touchant à ces questions, De Magnete, paru en 1600. C’est à lui que l’on doit l’invention de l’adjectif électrique pour désigner ces mystérieuses propriétés d’attraction (électrique vient du grec elektron, qui signifie ambre, l’un des premiers corps à avoir été électrisés par friction). Les expériences de Gilbert furent reprises par un allemand, Otto von Guericke, au milieu du XVIe siècle. Afin d’améliorer la qualité des observations, celui-ci inventa la première machine à faire le vide (l’attraction de corps électrisés se manifeste d’autant mieux que l’air ne fait pas obstacle à leur rapprochement), ainsi que la première machine électrostatique, en l’occurrence un gros globe de soufre que l’expérimentateur électrisait en le frottant de ses mains. Ces instruments rudimentaires lui permirent de découvrir à la fois le phénomène de conduction électrique, c’est-à-dire la capacité de ce mystérieux pouvoir électrique à se transmettre le long de certains corps, et le pouvoir des pointes, c’est-à-dire la forte tendance des objets pointus à manifester des propriétés électriques. Ce dernier effet ne fut mis à profit qu’un siècle plus tard par Benjamin Franklin : après avoir démontré, en 1752, que la FOUDRE est un phénomène de nature électrique, une sorte d’étincelle géante, il tira parti du pouvoir des pointes pour imaginer le paratonnerre, simple pointe métallique reliée à la terre et destinée à protéger le bâtiment qu’elle surplombe en attirant sur elle la décharge venue du ciel.

Au XVIIIe siècle, les travaux expérimentaux amorcés au siècle précédent s’accélérèrent. D’autres effets furent bientôt mis en évidence, de nouveaux instruments virent le jour, en même temps que certaines distinctions conceptuelles s’opéraient, premiers pas vers une formalisation des phénomènes électrostatiques. On doit à l’Anglais Stephen Gray la découverte de l’électrisation par influence, c’est-à-dire la possibilité d’électriser un corps à distance, sans contact direct, ainsi que la distinction entre corps conducteurs, qui transmettent l’électricité, et corps isolants, qui inhibent cette transmission. Une autre distinction importante est le fait du savant français Charles Du Fay : en 1733, il découvrit qu’il existait deux sortes d’« électricités » (nous dirions aujourd’hui charges électriques), l’une obtenue en frottant du verre, qu’il appela électricité vitreuse, l’autre obtenue en frottant des corps résineux, qu’il appela électricité résineuse. Deux corps porteurs d’« électricités » de même nature se repoussent, et deux corps porteurs d’« électricités » différentes s’attirent. Pour cette raison, Benjamin Franklin les rebaptisa quelques années après électricités positive et négative. Il fut le premier à fournir l’explication du phénomène d’électrisation en s’appuyant à la fois sur l’existence des deux types de charges électriques et sur un principe fondamental, mis en évidence quelques années auparavant par le physicien anglais William Watson, la conservation globale de la charge électrique : l’électrisation résultait de la séparation des charges positives et négatives contenues dans un corps globalement neutre.

  • Deux sortes d’électricité.
    L’étape suivante consista à caractériser la force électrique exercée par un porteur de charge sur un autre. Les physiciens n’eurent pas à aller chercher bien loin : ils s’inspirèrent de la loi de GRAVITATION de Newton énoncée un siècle auparavant. Ils proposèrent ainsi une force proportionnelle à la charge électrique de chacun des porteurs en interaction, et inversement proportionnelle au carré de la distance qui les sépare. Cette loi fut vérifiée expérimentalement en 1785 par le Français Charles Augustin de Coulomb (l’unité internationale de charge électrique porte son nom). Les dernières briques de la théorie des interactions entre charges électriques immobiles furent posées dans les années qui suivirent. Compte tenu de la forte similitude entre la loi de Coulomb et la loi de gravitation, le formalisme et les concepts de la MÉCANIQUE furent transportés dans le domaine de l’électrostatique. C’est à cette occasion que la notion de POTENTIEL, introduite en 1772 par Joseph Louis de Lagrange pour la gravitation, fut reprise, en 1784, par Pierre Simon de Laplace pour décrire l’état électrique engendré en un point quelconque de l’espace par un ensemble de charges électriques.
  • De la pile au courant.
    C’est au moment où la théorie électrostatique parvenait à maturité qu’une onde de choc vint l’ébranler. La révolution venait de là où on l’attendait le moins : des travaux d’un anatomiste italien, Luigi Galvani, sur les muscles de cuisses de grenouilles disséquées. En 1791, il découvrit que ces muscles manifestaient de curieuses propriétés électriques dès qu’on les mettait en contact avec deux métaux de natures différentes.

Pour interpréter ces phénomènes, il fit un rapprochement avec un dispositif mis au point quelques années auparavant par l’Allemand Ewald Georg von Kleist : la bouteille de Leyde. Il s’agissait d’une simple bouteille dont la paroi interne était recouverte d’une feuille métallique préalablement chargée électriquement, qui se déchargeait brusquement dès qu’on la mettait en contact avec un conducteur (elle constitue à ce titre le premier condensateur électrique). Pour Galvani, la grenouille constituait une bouteille de Leyde naturelle, que le contact avec deux métaux conducteurs suffisait à décharger de sa mystérieuse électricité animale.

Sceptique, le physicien italien Alessandro Volta reprit les expériences de son compatriote et montra que la grenouille ne jouait qu’un rôle secondaire : l’effet électrique résultait en fait de la mise en contact de deux métaux de nature différente par l’intermédiaire d’un tissu humide. S’inspirant de cette conclusion, il mit au point en 1800 la première pile électrique, constituée d’un empilement (d’où son nom) de disques de cuivre et de zinc, entre lesquels s’intercalaient des tissus imbibés d’acide.

Cette invention révolutionna l’électricité : contrairement aux machines électrostatiques qu’on devait charger par frottement et qui se déchargeaient en un temps très bref, la pile de Volta produisait spontanément, par réaction chimique, une sorte de décharge continue que le physicien français André Marie Ampère baptisa en 1820 courant électrique. Un courant électrique n’est rien d’autre qu’un déplacement global de charges au sein d’un conducteur. En hommage à Ampère, l’unité internationale de l’intensité du courant électrique, c’est-à-dire de la quantité de charges qui traverse une section de conducteur par unité de temps, porte le nom d’ampère. En hommage à Volta, la tension, c’est-à-dire la grandeur qu’il introduisit pour mesurer la capacité d’une pile à produire un courant, s’exprime en volts.

Grâce à cet allongement considérable du temps de décharge (accru par la réalisation de piles de plus en plus performantes), il devint possible d’observer les effets d’un long passage de courant dans une multitude de corps. On ne tarda pas à s’apercevoir qu’en plongeant dans l’eau, ou plus généralement dans une solution aqueuse, deux tiges solides reliées aux bornes d’une pile (deux électrodes, suivant la terminologie introduite par Michael Faraday quelques années plus tard), on provoquait la décomposition de la solution en ses constituants élémentaires, c’est-à-dire l’électrolyse. Cette technique permit au chimiste anglais Humphry Davy de découvrir, au début du XIXe siècle, une multitude d’éléments jusque-là inconnus : le sodium, le potassium, le calcium, le magnésium, le baryum et le strontium. En substituant à la solution aqueuse un gaz enfermé dans une enceinte en verre, on réalisa les premières décharges électriques durables, qui allaient servir de base aux premiers dispositifs d’éclairage urbain dans la seconde moitié du XIXe siècle. Enfin, en 1841, l’Anglais James Prescott Joule observa que le passage d’un courant électrique dans un conducteur métallique provoquait un dégagement de chaleur. C’est l’effet joule, vital pour les fers à repasser…


 Quelques liens vers d’autres sites

http://www.ampere.cnrs.fr/parcourspedagogique/agora/spip.php?article18

http://licencer.free.fr/nature_courant.html

Pas de licence spécifique (droits par défaut)