This site uses cookies.
Some of these cookies are essential to the operation of the site,
while others help to improve your experience by providing insights into how the site is being used.
For more information, please see the ProZ.com privacy policy.
This person has a SecurePRO™ card. Because this person is not a ProZ.com Plus subscriber, to view his or her SecurePRO™ card you must be a ProZ.com Business member or Plus subscriber.
Affiliations
This person is not affiliated with any business or Blue Board record at ProZ.com.
English to French: Feeding a Black Hole Jet / Alimenter un jet de trou noir General field: Science Detailed field: Astronomy & Space
Source text - English Simulations of the environment around a spinning black hole* give new insight into the formation of luminous jets seen from Earth.
By Robert F. Penna
Black holes are creatures of darkness. They creep through the Universe emitting no light of their own, outside of a faint halo of Hawking radiation* that is all but invisible for known black holes. So it is one of the great ironies of astronomy that, time and again, black holes have been found lurking in the brightest places in the cosmos. This association between black holes and light arises because the incredible gravitational forces exerted by a hole can impart energy to nearby material, causing it to radiate. An example of this process occurs in black hole jets, where black hole rotation and magnetic fields* combine to create a stream of plasma* particles* that emit light over a wide range of wavelengths. A new set of simulations—performed by Kyle Parfrey from Lawrence Berkeley National Laboratory, California, and colleagues—offers an in-depth look at black hole jets [1], tracking, for the first time, the motion of the plasma particles that are produced through pair creation* in the vicinity of the black hole. The results show that large numbers of these particles rob energy from the black hole’s rotation. These kinds of simulations may play a key role in decoding the signals from black holes in the distant Universe and in our own Milky Way.
To build a black hole jet, nature has a tried-and-true formula. Start with a black hole that is spinning around so fast that its event horizon*—the surface separating the inside of the black hole from the outside—is racing around at an appreciable fraction of the speed of light. Now thread the spinning black hole with a magnetic field. Calculations show that the black hole’s rotation, along with the effect of infalling gas, will cause the magnetic field lines to wind around into giant helixes that spiral out along the black hole’s rotational axis (Fig. 1). In this process, the black hole’s rotational energy is slowly transferred to the magnetic field. The energy in the magnetic field is eventually dissipated and converted to ordinary radiation through a cascade process involving pair creation and synchrotron effects*. Black hole jets such as this are believed to power some of the brightest sources of x-ray* and radio emission in the sky [2].
Over the past decade, there have been many efforts to understand black hole jets using numerical simulations. Current state-of-the-art simulations use the theory of general relativistic magnetohydrodynamics* (GRMHD), which describes the motion of a magnetized fluid* in curved spacetime* [3]. These simulations are very good at describing the transfer of energy from the spinning black hole to the magnetic field. However, they treat the plasma as a continuous fluid, and they set the density “by hand” with a somewhat ad hoc value. In real astrophysical jets*, the plasma is so rarefied that the fluid approximation is not really valid, and its density is constantly adjusting to local interactions* between plasma particles and the magnetic field. Because of their limitations, GRMHD simulations are unable to model the conversion of magnetic-field energy into ordinary radiation, and they have yet to resolve lingering questions about the overall strength of the jets.
To tackle these problems, Parfrey et al. have introduced a new kind of black hole jet simulation. In their work, the plasma is described correctly as a collection of individual particles, rather than as a smooth, continuous fluid. The density of the plasma is still not based on a first-principles model of the interactions between the particles and the magnetic field, but Parfrey et al. use a physically motivated prescription for setting the plasma density, based on electron-positron pair creation in the electric field that is induced by magnetic-field dynamics around the black hole.
Like GRMHD simulations, the new simulations require a lot of computing power to observe small-scale spatial variations in the jet. As such, the Parfrey et al. paper presents only two high-resolution runs, both of which describe black holes rotating at about 96% of the speed of light. In one run, the threshold for pair creation is set low, leading to a high-density plasma. In the other run, the threshold is higher, and the resulting plasma is less dense. The final results in both cases are short movies, each lasting just long enough for the black hole to spin around about a dozen times. Despite the brevity of the simulations, the jets appear to relax to a quasisteady state* about midway through the runs.
The results of the new simulations are not radically different from the those of the old GRMHD simulations, which is, in some sense, reassuring. However, Parfrey et al. uncover some interesting and novel behavior. For example, they find a large population of particles whose relativistic energies are negative, as measured by an observer far from the black hole. When these particles fall into the black hole, the black hole’s total energy decreases (see 26 June 2015 Focus Story). The possibility of creating negative-energy* particles near a rotating black hole was predicted long ago by Roger Penrose [4]. What is surprising is that the new simulations show a substantial flow of these particles into the black hole, so much so that the energy they extract by falling into the hole is comparable to the energy extracted by the winding of the magnetic field. Follow-up work is needed to confirm this prediction, but if the effect of negative-energy particles is as strong as claimed, it could alter expectations for the radiation spectra from black hole jets.
The years ahead are full of promise. Gravitational wave* detectors have begun to pick up the ripples in spacetime left behind by the mergers of distant black holes [5]. Although not yet seen, black holes should also emit gravitational waves when they swallow a star. These gravitational waves should arrive accompanied by ordinary light. Jet models like the ones developed by Parfrey et al. will play a key role in interpreting these observations. Closer to home, the Event Horizon Telescope (EHT) is poised to provide the highest-resolution look yet at the black hole lurking at the center of our Galaxy [6]. This black hole has a modest jet, so EHT data will need to be processed with help from realistic jet models. Like black hole environments, the future is bright for black hole research.
Translation - French Des simulations de l’environnement autour d’un trou noir en rotation offrent un nouvel aperçu de la formation des jets lumineux repérés depuis la Terre.
Les trous noirs sont des créatures des ténèbres. Ils se faufilent à travers l’espace et n'émettent aucune lumière d’eux-mêmes, exception faite d’un faible halo généré par le rayonnement de Hawking* qui, en ce qui concerne les trous noirs connus, est tout sauf invisible. Voilà une des plus grandes ironies de l'astronomie, que celle des trous noirs, qui ont maintes et maintes fois été découverts en train de rôder dans les endroits les plus lumineux de l’espace. La relation entre les trous noirs et la lumière naît de la formidable force gravitationnelle exercée par un trou noir, force qui transmet de l’énergie à tout matériau suffisamment proche et le fait briller. Les jets relativistes émis par les trous noirs sont un bon exemple de ce processus, durant lequel la rotation d’un trou noir interagit avec son champ magnétique* pour créer un flux de particules* de plasma* qui émet de la lumière sur une large gamme de longueurs d'onde. Une récente série de simulations réalisées par Kyle Parfrey et ses collègues du Laboratoire national Lawrence-Berkeley en Californie propose un examen approfondi des jets de trous noirs [11], en faisant, pour la première fois, un suivi du mouvement des particules de plasma produites par la création de paires* de particules aux environs du trou noir. Les résultats ont montré qu’une grande quantité de ces particules tire son énergie de la rotation du trou noir. Ces simulations pourraient jouer un rôle clé dans l’analyse des signaux émis par les trous noirs situés dans l’univers lointain et au sein de notre galaxie.
Pour créer un jet de trou noir*, la nature use d’une méthode éprouvée. Commencez par un trou noir dont la vitesse de rotation est telle que son horizon des événements* (la surface qui sépare l’intérieur du trou noir de l’extérieur) file à une fraction non négligeable de la vitesse de la lumière. Puis, ajoutez un champ magnétique au trou noir. Des calculs ont montré que la rotation du trou noir, combinée aux effets du gaz en accrétion, entraîne l’enroulement des lignes du champ magnétique en hélices géantes qui se déploient en spirale le long de l’axe de rotation du trou noir (figure 1). Lors de ce processus, l’énergie de rotation du trou noir est lentement transférée au champ magnétique. L'énergie du champ magnétique se dissipe et est convertie en radiation ordinaire par le biais d’un processus en cascade qui implique la création de paires de particules et l’émission d’un rayonnements synchrotron*. On estime que de tels jets sont à l’origine des sources de rayons X* et d’émission radio les plus lumineuses de la voûte céleste [2].
Beaucoup de travail a été réalisé durant ces dix dernières années afin de comprendre la nature des jets de trou noir à l’aide de simulations informatiques. À ce jour, les simulations les plus récentes s’appuient sur la théorie de la magnétohydrodynamique relativiste* (MHD), théorie de généralisation qui décrit le mouvement d’un fluide conducteur* dans un espace-temps* courbe [3]. Ces simulations reproduisent avec succès le transfert d'énergie entre le trou noir en rotation et le champ magnétique. Cependant, elles traitent le plasma comme un fluide uniforme, en plus de définir la densité « à la main » à une valeur assez empirique. Au sein des jets astrophysiques réels, le plasma est si raréfié que le traitement du fluide n’est pas pertinent, de plus, sa densité change constamment en rapport avec les interactions* entre les particules de plasma et le champ magnétique. À cause de leurs limites, les simulations MHD ne sont pas en mesure de simuler la conversion de l’énergie du champ magnétique en radiation ordinaire, de plus, elles n'ont pas encore répondu à des interrogations de longue date en ce qui concerne la puissance globale des jets.
Pour résoudre ces problèmes, Parfrey et ont lancé un nouveau type de modélisation de jet de trou noir. Dans leurs travaux, le plasma est décrit comme un ensemble de particules individuelles plutôt qu’un fluide continu et homogène. La densité du plasma n’est toujours pas basée sur un modèle qui inclue les principes de l'électromagnétisme, cependant, Parfrey et al. définissent cette densité par le biais d’une prescription justifiée sur fond de physique en s'appuyant sur la création de paires électron-positron dans le champ électrique induit par les effets du champ magnétique qui entoure le trou noir.
Tout comme les simulations MHD, ces nouvelles simulations demandent beaucoup de puissance de calcul pour pouvoir observer des variations spatiales de petite échelle dans le jet. De ce fait, l'étude de Parfrey et al. ne propose que deux simulations de haute résolution qui montrent des trous noirs dont la vitesse de rotation est de 96% celle de la lumière. Dans l’une de ces simulations, le seuil de création de paires est défini comme étant bas, ce qui abouti sur un plasma de haute densité. Dans l’autre, le seuil est haut, ce qui a donné pour résultat un plasma moins dense. Les deux simulations produisent deux courtes vidéos, dont la durée était à peine suffisante pour que le trou noir effectue une dizaine de rotations. Malgré la brièveté des simulations, les jets semblent atteindre un état quasi-stationnaire* à environ la moitié de celles-ci.
Les résultats des nouvelles simulations ne sont pas extrêmement différents de ceux des simulations MHD antérieures, ce qui, en un sens, est rassurant. Cela étant, Parfrey et al. ont découvert quelque chose d’ à la fois nouveau et intéressant : ils ont détecté un large groupement de particules dont les énergies relativistes étaient négatives, comme mesuré par un observateur situé loin du trou noir. Lorsque ces particules tombent dans le trou noir, l'énergie totale du trou noir diminue (voir Focus Story du 26 juin 2015). La possibilité de création de particules d’énergie négative près d’un trou noir en rotation fut prédite par Roger Penrose [4] il y a longtemps. Le fait que les nouvelles simulations montrent un flux non-négligeable de ces particules au sein du trou noir a de quoi surprendre, à tel point que l'énergie qu’elles en tirent lorsqu’elles tombent dedans est comparable à l'énergie extraite lorsque le champ magnétique s’enroule. Des travaux de suivi sont nécessaires pour confirmer cette prédiction, mais si l’effet des particules à énergie négative* est aussi puissant qu’on le prétend, cela pourrait influer sur les estimations des spectres de rayonnement des jets de trous noirs.
Les années à venir sont prometteuses. Des détecteurs d’ondes gravitationnelles* ont commencé à détecter les ondulations dans l’espace-temps générée par des fusions de trous noirs éloignés [5]. Même si cela n’a pas encore été observé, les trous noirs devraient également générer des ondes gravitationnelles lorsqu’ils engloutissent une étoile. Ces vagues devraient parvenir à nous accompagnées de lumière ordinaire. Des simulations de jets comme celles développées par Parfrey et al. joueront un rôle clé dans l'interprétation de ces observations. Plus proche de chez nous, l’Event Horizon Telescope (EHT) est sur le point de révéler des images de la plus haute résolution du trou noir qui se terre au centre de notre galaxie [6]. Ce trou noir émet un jet de puissance moyenne, ainsi les données de l’EHT devront être traitées à l’aide de simulations réalistes de jets. Tout comme les environs d’un trou noir, l’avenir de la recherche sur les trous noirs s’avère radieux.
English to French: A Rapidly Cooling Neutron Star / Une étoile à neutrons qui refroidit rapidement General field: Science Detailed field: Astronomy & Space
Source text - English Astrophysicists have found the first direct evidence for the fastest neutrino-emission mechanism by which neutron stars* can cool.
By James M. Lattimer
Neutron stars are formed in supernova explosions of stars too massive to become white dwarfs*. In such supernovae, the hot remnant formed by the collapse of the stellar core is so dense that most protons and electrons* combine to make neutrons. By observing how neutron stars cool, researchers hope to understand how matter behaves under extreme conditions—densities exceeding those of atomic nuclei and temperatures that can reach hundreds of billions of kelvin. Now, Edward Brown at Michigan State University, East Lansing, and co-workers have investigated the cooling history of a neutron star that is part of a binary system in our Galaxy. By analyzing the star’s x-ray emissions in the quiescent periods that followed two periods of x-ray outbursts* ending in 2001 and 2016, the team found evidence of a particularly fast neutrino cooling mechanism, called the direct Urca process* [1]. This process is believed to occur early in the lives of all neutron stars and may operate in later stages of a few neutron stars, but it has never been directly observed.
In a newly born neutron star, neutrinos are temporarily trapped in the opaque stellar core, but they diffuse out in a matter of seconds, leaving most of their energy to heat the matter in the core to more than 500 billion kelvin. Over the next million years, the star mainly cools by emitting more neutrinos. The direct Urca process, which is thought to dominate the initial stage of this cooling, was first proposed by physicists Mário Schenberg and George Gamow. (The mechanism is named for a casino in Rio, where Schenberg allegedly said to Gamow: “The energy in a supernova must disappear... as quickly as the money at the roulette table.”) In direct Urca processes involving nucleons*, thermally excited neutrons undergo beta decay to release protons, electrons, and antineutrinos*, a reaction denoted n → p + e− + νe, while thermally excited protons undergo the reverse process and generate neutrons, positrons*, and neutrinos, or p → n + e+ + νe. The neutrinos carry away energy as they escape from the star, and as the star cools, the number of thermally excited nucleons drops.
Within a minute, the direct Urca process would allow the temperature of the stellar core to plummet to about 1 billion kelvin. But once this “low” temperature is reached, most neutron stars wouldn’t have enough thermally excited nucleons to continue to support the direct Urca process because the process can no longer simultaneously conserve energy and momentum. Calculations show that to conserve momentum, the direct Urca process requires a minimum fractional proton concentration (Yp) of 1/9 [2]. The proton fraction in a neutron star below 1 billion kelvin is determined by the so-called nuclear symmetry energy, which quantifies the change in energy occurring when protons are converted into neutrons. For typical neutron star densities, which are close to those of atomic nuclei (ρs = 2.3 × 1017 kg/m3), the symmetry energy sets Yp at about 1/25, which would stop the direct Urca process. The next available cooling mechanisms are “modified” Urca processes, which, at these temperatures, are a million times slower than the direct nucleon Urca process. As a consequence, after the first few minutes, most neutron stars cool relatively slowly and remain visible as x-ray sources for up to a million years.
However, there may be exceptions. The nuclear symmetry energy increases with density, and it is possible that Yp is larger than 1/9 in sufficiently massive neutron stars. Thus, such stars could still undergo enhanced neutrino cooling via direct Urca processes. This possibility will depend both on how the symmetry energy scales with density—which is difficult to determine at high density—and on the maximum density in the star, which depends on its mass.
To test for the rapid cooling associated with the direct Urca process, researchers typically determine the temperatures and ages of isolated, thermally emitting neutron stars. By comparing a star’s temperature with predictions from theoretical models, they can infer whether rapid cooling occurred in the star’s early life. These indirect tests previously suggested that a handful of stars might have undergone enhanced cooling [3].However, more recently, researchers have realized that another test is possible, based on observing neutron stars in binary systems. A neutron star in a binary may accrete material from its companion star—a process that typically generates x-ray outbursts. During accretion, the stellar core’s temperature is determined by the balance between the heating due to accretion and the cooling due to neutrino emission. In the quiescent period following accretion, the surface temperature can be used to infer the core temperature and thereby determine the cooling rate. Up until now, two binary systems [4, 5] have shown hints of enhanced cooling. In these studies, however, the evidence for enhanced cooling was indirect because the stars were already too dim for their thermal emission to be detected—only upper limits to their temperatures were inferred from observations.
Brown and colleagues obtained, for the first time, direct evidence of a neutron star in the act of cooling at a rate consistent with the direct Urca process. The evidence comes from the study of a neutron star that is a member of the binary MXB 1659-29 (Fig. 1). MXB 1659-29 underwent outbursts that ended in 2001 and 2016, providing the chance to observe the cooling of the neutron star during the subsequent quiescent periods. The authors analyze the temporal history of the luminosity and temperature of the source, assuming that the outburst-quiescence cycle observed to date represents the long-term behavior of the star. Under this assumption, they conclude that the cooling observed in the star’s history can only be explained if the direct Urca process is active in about 1% of the stellar core. Although other processes could, in principle, explain the observed enhanced cooling, the authors conclude that they are disfavored by the data [6].
These results are potentially very important for our understanding of dense matter. The direct Urca process requires both unpaired nucleons and a sufficiently large proton fraction in at least part of the star’s core. From their estimate of the amount of unpaired nucleons in MXB 1659-29’s neutron star, the researchers were able to derive constraints on the heat capacity of the star’s core. They were also able to constrain the critical temperature of the superfluid state* that’s thought to form in the core. Such results will provide important consistency checks for dense-matter models. What’s more, the proton fraction can give information on the nuclear symmetry energy, in particular, on its density dependence. Until now, such information has been restricted by nuclear experiments to densities below those of atomic nuclei, while at the center of neutron stars, the densities can be 5 times higher. The authors estimate that the mass of MXB 1689-29’s neutron star is approximately 0.03 solar masses* larger than the threshold mass for the direct Urca process to occur. If the star’s actual mass could be accurately determined, the value of the nuclear symmetry would be quantified at high densities for the first time.
Studies like that carried out by Brown et al. will al low researchers to probe* enhanced cooling in more neutron stars and to connect such observations to the fundamental properties of dense nuclear matter. Investigating the binaries analyzed in Refs. [4] and [5] might be particularly illuminating. According to those studies, there should be more enhanced cooling in those neutron stars than in MXB 1659-29, suggesting that the stars are correspondingly more massive and thus denser. If enhanced cooling is confirmed, observations may provide experimental constraints on the symmetry energy at even higher densities than in MXB 1659 29.
Translation - French Des astrophysiciens ont découvert les premières preuves directes de l’existence du plus rapide processus d'émission de neutrinos par lequel les étoiles à neutrons* peuvent refroidir.
Les étoiles à neutrons se forment lors de l’explosion en supernova d'étoiles trop massives pour devenir des naines blanches*. Les restes chauds de telles supernovæ générées par l'effondrement du noyau sont si denses que la plupart des protons et des électrons* se combinent pour former des neutrons. En observant la façon dont les étoiles à neutrons refroidissent, les chercheurs espèrent comprendre comment la matière se comporte dans des conditions extrêmes : des densités qui dépassent celles des noyaux atomiques et des températures qui peuvent atteindre des centaines de milliards de kelvins. Edward Brown et ses collègues de l’Université de l'état du Michigan à East Landing ont examiné l’historique de refroidissement d’une étoile à neutrons qui appartient à un système binaire de notre galaxie. En analysant les émissions de rayons X de l'étoile durant les périodes de quiescence qui ont suivi deux périodes d’intenses sursauts de rayons X* qui ont pris fin en 2001 et en 2016, l'équipe a découvert des preuves de l’existence d’un mécanisme de refroidissement rapide par émission de neutrinos appelé processus Urca* [1]. On estime que ce processus a lieu assez tôt dans la vie d'une étoile à neutrons et qu'il peut se produire plus tard dans la vie de certaines étoiles à neutrons, seulement, il n’a jamais été directement observé.
Au sein des étoiles à neutrons nouvellement formées, les neutrinos sont temporairement emprisonnés dans le noyau stellaire, mais ils se dispersent en l’espace de quelques secondes et dissipent la plupart de leur énergie sous forme de chaleur qui va réchauffer la matière dans le noyau à plus de 500 milliards de degrés kelvin. Au cours des prochaines millions d’années, l'étoile va principalement se refroidir en émettant toujours plus de neutrinos. Le processus Urca, censé être le processus dominant lors du premier stade de ce refroidissement, fut initialement proposé par les physiciens Mário Schenberg et George Gamow. (ce processus a été nommé en référence à un casino de Rio, où Schenberg aurait soi-disant dit à Gamow : « l’énergie contenue dans une supernova doit disparaître, aussi vite que l’argent à la table de la roulette ».) Lors d'un processus Urca durant lequel des nucléons* sont sollicités, les neutrons excités par la chaleur passent par une phase de désintégration bêta moins et produisent des protons, des électrons et des antineutrinos, c’est une réaction que l'on note selon la formule n → p + e− + νe. Pendant ce temps, les protons excités par la chaleur subissent un processus inverse et produisent des neutrons, des positrons* et des neutrinos, une réaction que l’on note selon la formule p → n + e+ + νe. À mesure qu’ils s’échappent, les neutrinos emportent avec eux de l’énergie, et à mesure que l'étoile refroidit, le nombre de nucléons excités par la chaleur diminue.
En une minute, le processus Urca permettrait à la température du noyau de l'étoile de tomber à environ un milliard de degrés kelvin. Cependant, une fois cette température « basse » atteinte, la plupart des étoiles à neutrons ne contiendraient plus assez de nucléons excités par la chaleur pour entretenir le processus Urca car il ne serait plus en mesure de conserver et l’impulsion et l'énergie qui lui sont nécessaires. Les calculs montrent que, pour conserver cette impulsion, le processus Urca exige une concentration fractionnelle en proton (Yp) de 1/9 [2]. La proportion de protons dans une étoile à neutrons dont la température est inférieure à un milliard de degrés kelvin est déterminée par l'énergie de symétrie nucléaire, qui quantifie les changements d'énergie qui se produisent lorsque les protons sont convertis en neutrons. En ce qui concerne les densités habituelles des étoiles à neutrons, qui sont proches de celles des noyaux atomiques (ρs = 2.3 × 1017 kg/m3), l’énergie de symétrie établit la concentration fractionnelle en proton (Yp) à environs 1/25, ce qui conduit à l'arrêt du processus Urca. Les autres mécanismes de refroidissement reposent sur des processus Urca « modifiés », qui, à ces températures sont des millions de fois plus lent que le processus Urca. Ainsi, après les quelques premières minutes, la plupart des étoiles à neutrons refroidissent relativement lentement et demeurent visibles en tant que sources de rayons X durant une période qui va jusqu’à un million d'années.
Il existe cependant des exceptions. L'énergie de symétrie nucléaire augmente avec la densité, il est donc tout à fait possible que la concentration fractionnelle en proton (Yp) dépasse 1/9 dans les étoiles à neutrons suffisamment massives. De ce fait, de telles étoiles pourraient toujours subir un refroidissement par émission de neutrinos accéléré via le processus Urca. Les probabilités qu’un tel scénario se produise dépendent de deux facteurs : l'évolution de l'énergie de symétrie en fonction de la densité (ce qui est difficile à estimer avec de grandes densités), et la densité maximale de l'étoile, qui dépend de sa masse.
Pour vérifier le refroidissement rapide associé au processus Urca, les chercheurs mesurent habituellement les températures et l’âge d'étoiles à neutrons isolées qui émettent de la chaleur. En comparant la température d’une étoile avec ce que prédisent les modèles théoriques, ils sont en mesure de déduire si l'étoile a connu un refroidissement rapide lors de sa jeunesse. Ces observations indirectes ont indiqué jusqu’alors qu’une poignée d'étoiles auraient subi un refroidissement accéléré [3]. Cependant, les chercheurs ont récemment réalisé qu’un modèle de vérification, basé sur l’observation d'étoiles à neutrons au sein de systèmes binaires, était possible. L’étoile à neutron d’un système binaire peut s’approprier la matière de l’étoile compagnon : c’est un processus habituellement à l’origine de sursauts de rayons X. Lors de l'accrétion, la température du noyau de l'étoile est déterminée par l'équilibre entre le réchauffement provoqué par l’accrétion et le refroidissement provoqué par l’émission de neutrinos. Pendant la période de calme qui suit l’accrétion, les chercheurs peuvent se servir de la température de surface pour déterminer la température du noyau et ainsi mesurer la vitesse de refroidissement. Jusqu’à maintenant, deux systèmes binaires [4, 5] ont montré des signes de refroidissement accéléré. Cela étant, dans ces études, les preuves de refroidissement accéléré étaient indirectes, car l'éclat des étoiles était déjà trop faible pour que leurs émissions de chaleur soient détectées : seules les limites maximales de leur température ont été déduites à partir des observations effectuées.
Brown et ses collègues ont collecté, pour la première fois, des preuves directes du refroidissement d’une étoiles à neutrons dont la vitesse de refroidissement était en adéquation avec le processus Urca. Les preuves viennent de l'étude d’une étoile à neutrons qui appartient au système binaire MXB 1659-29 (image. 1). MXB 1659-29 a fait l’objet de sursauts de rayons X qui ont pris fin en 2011 et 2016, ce qui a donné l’occasion aux chercheurs d’observer le refroidissement de l’étoiles à neutrons durant les périodes de calme qui ont suivi. Les chercheurs ont analysé l’historique de la luminosité et des températures de la source en considérant que le cycle d’activité et de repos observé à ce jour correspond au comportement à long terme de l’étoile. En suivant cette hypothèse, ils en ont conclu que le refroidissement observé dans l’historique de l’étoile ne peut que s’expliquer par l’occurrence du processus Urca dans environ 1% du volume du noyau de l’étoile. Même si, en principe, d’autres processus pourraient expliquer le refroidissement accéléré observé, les auteurs en concluent que les données ne les favorisent pas [6].
Ces résultats sont d’un intérêt potentiel dans la compréhension de la matière dense. Le processus Urca nécessite à la fois des nucléons non couplés et une portion suffisamment importante de protons dans au moins une partie du noyau de l'étoile. À partir de leur estimation de la quantité de nucléons non couplés dans l'étoile à neutrons du système binaire MXB 1659-29, les chercheurs ont été en mesure de déterminer des contraintes liées à la capacité thermique du noyau de l'étoile. Ils ont également été en mesure de restreindre les températures critiques de l'état superfluide* qui se forme en théorie dans le noyau. De tels résultats permettront de vérifier la cohérence des modèles qui portent sur la matière dense. De plus, la proportion en protons peut fournir des données à propos de l'énergie de symétrie nucléaire, notamment sur son degré de dépendance à la densité. Jusqu’à maintenant, ces données ont été limitées par les expérimentations atomiques sur les densités inférieures à celles des atomes nucléaires, tandis qu’au centre d’une étoile à neutrons, ces densités peuvent être 5 fois plus élevées. Les chercheurs estiment que la masse de l’étoile à neutrons du système MXB 1689-29 est environs 0,03 masse solaire* supérieure à la masse minimale requise pour que le processus Urca ait lieu. Si la véritable masse de l'étoile pouvait être calculée avec précision, la valeur de l’énergie de symétrie nucléaire serait alors mesurée à de hautes densités pour la première fois.
Des études comme celles menées par Brown et al. permettront aux chercheurs d’examiner* le refroidissement accéléré au sein de plus d'étoiles à neutrons en plus d'établir un lien entre ces observations et les propriétés fondamentales de la matière nucléaire dense. Chercher du côté des systèmes binaires cités dans les références [4] et [5] pourrait se révéler très enrichissant. Selon ces études, le refroidissement accéléré de ces étoiles à neutrons devrait être plus prononcé que celui de l’étoile à neutrons du système MXB 1659-29, ce qui laisse à penser que ces étoiles sont proportionnellement plus massives, et, de ce fait, plus denses. Si l‘existence de ce refroidissement accéléré est avérée, les observations pourront peut-être fournir des contraintes expérimentales sur l'énergie de symétrie à des densités bien plus élevées que celle de MXB 1659 29.
James M. Lattimer
English to French: Supernova Study Dampens Dark Matter Theory / Une étude sur les supernovas contredit la théorie sur la matière noire General field: Science Detailed field: Astronomy & Space
Source text - English Black holes are one of the oldest candidates for dark matter—the unidentified “stuff” that underpins galaxies and makes up 85% of the matter in the Universe. But whether the total mass of black holes is sufficient to account for all the dark matter is unclear. A new analysis of supernovae makes this possibility seem very unlikely [1]. A black hole of sufficient mass passing in front of a supernova should act as a magnifying lens and make the star appear brighter, allowing the black hole to be spotted. But when Miguel Zumalacárregui and Uroš Seljak from the University of California, Berkeley, searched for this effect in over a thousand supernovae, they came up empty handed. Their analysis applies to all black holes with masses greater than 0.01 times that of our Sun and indicates that such objects can account for at most 40% the Universe’s dark matter.
Stephen Hawking first proposed the idea that black holes might contain the Universe’s missing matter in 1974. The idea quickly attracted the attention of other physicists, as it didn’t require some, as yet, undiscovered particle. Black holes can form when massive stars implode, but there haven’t been enough such stars to account for dark matter. However, current theories suggest that huge numbers of black holes could have formed in the early Universe* from the gravitational collapse of dense regions of matter and that the total mass of these so-called primordial black holes* could be enough to account for dark matter [2] (see accompanying Feature:Controversy Continues over Black Holes as Dark Matter). But so uncertain is this era of the Universe that our best theories make no solid prediction for the mass of primordial black holes: if they exist, they could be as light as 10−5 g, roughly the same weight as an eyelash, or as heavy as a billion Suns.
Black holes that originate from a collapsed star usually have a visible “halo” of gas and debris swirling around them. However, primordial black holes, if they exist, formed before the first atoms, leaving them disc-free and completely dark. To see such a black hole, researchers therefore look for its gravitational effect on light. Previous searches for black holes via gravitational effects ruled out the existence of large numbers of primordial black holes with masses ranging from 10 down to 10−8 times that of our Sun [3, 4], restricting possible models that allow black holes to explain dark matter. Then, in 2015, the LIGO-Virgo collaboration detected the first gravitational signal from two merging black holes [5]. Their analysis indicated that the black holes they detected each had a mass more than 25 times greater than that of our Sun—heavier than the mass expected for a typical black hole formed from a dying star. The finding fueled speculation that the LIGO-Virgo collaboration had detected primordial black holes, and interest in black holes as dark matter candidates was renewed [6].
In their study, Zumalacárregui and Seljak looked for black holes using the effect of gravitational lensing*, the same gravitational effect probed in previous studies. This effect arises when the path of light emitted by an object, say a star, is bent by the gravity of some other object, like a blackhole, that sits between the star and Earth. The black hole acts as a lens, making the star appear brighter, with the degree of brightening depending on the black hole’s mass (Fig. 1). The previous lensing experiments searched for black-hole-brightened stars in the Magellanic Clouds—two dwarf galaxies* that closely orbit the Milky Way [3, 4, 7]. The duration of the experiments made them sensitive to changes in a star’s brightness over timescales from a few minutes to five years—long enough to detect the transit of black holes with masses of up to 10 times that of our Sun.
The same approach isn’t practical for observing larger black holes, which could take a decade or more to pass by a star. Instead, Zumalacárregui and Seljak turned to lensing-induced brightening of supernovae. The variety of supernovae they observed, type 1a, are standard candles*—they have an intrinsic brightness that can be determined by measuring how quickly they fade. But because of lensing, a supernova erupting fortuitously behind a passing black hole will appear brighter than expected from its fade time. Looking for artificially bright supernovae eliminates the need to wait for the black hole to transit the object, providing sensitivity to black hole masses ranging from 0.01 to several thousand times that of the Sun.
The duo analyzed the signals from over 1300 supernovae spread across most of the sky in the Northern hemisphere, finding no brighter-than-expected supernovae. Assuming different black hole abundances, they also calculated the likelihood that a black hole—in the mass range detectable in the experiment—would randomly pass between Earth and one of the supernovae in the time frame of the measurements. Based on this calculation, they conclude that the cumulative mass of these black holes can account for only 40% of dark matter.
The work of Zumalacárregui and Seljak shows that black holes with masses greater than 0.01 times that of our Sun occur in insufficient numbers to account for all the dark matter. The result, taken together with those from other experiments [8], rules out the idea that dark matter could be entirely accounted for with black holes. But the possibility remains that black holes could make up a small fraction of dark matter, with the rest coming from some other potential source like weakly interacting massive particles* (WIMPs), sterile* neutrinos*, or axions*. For this reason, experiments will continue to search for black holes. Future supernova surveys will likely further tighten the constraints placed by Zumalacárregui and Seljak on the mass and abundance of black holes in the Universe. For example, the upcoming start-up of the Large Synoptic Survey Telescope, which will be able to image the entire sky in three days, should significantly boost our ability to detect transient events, be they related to black hole lensed supernovae and stars, or something else.
Translation - French Une recherche portant sur la surbrillance des supernovas* par effet de lentille gravitationnelle n’aboutit pas, ce qui amène les chercheurs à la conclusion que les trous noirs ne peuvent complètement expliquer la présence de matière noire*.
Les trous noirs sont parmi les plus anciens candidats qui permettraient de justifier la présence de matière noire, la mystérieuse « substance » qui est la matière principale des galaxies et qui constitue 85% de la matière de l’univers. Cependant, nous ne savons pas si la masse totale des trous noirs est suffisante pour représenter toute la matière noire. Plusieurs supernovæ ont récemment fait l’objet d’une analyse qui semble réduire cette possibilité [1]. Un trou noir avec une masse suffisante qui passe devant une supernova devrait agir comme une loupe et rendre l'étoile plus brillante en apparence, ce qui permettrait de repérer le trou noir. Mais après avoir cherché ce type d’effet en observant plus d’un millier de supernovæ, Miguel Zumalacárregui et Uroš Seljak de l’Université de Californie à Berkeley n’ont rien trouvé. Leur analyse s'applique sur tous les trous noirs dont la masse est supérieure à 0,01 fois celle de notre soleil et indique que ces objets sont en mesure d’expliquer la présence de tout au plus 40% de la matière noire de l’univers.
Stephen Hawking fut le premier à avancer l’idée, en 1974, que les trous noirs pouvaient contenir la matière manquante de l’univers. L’idée attira l’attention d'autres physiciens dans la mesure où elle n’impliquait pas, à l’époque, de particules inconnues. Les trous noirs se forment lors de l’effondrement d’étoiles très lourdes, mais leur nombre a toujours été insuffisant pour justifier l’existence de la matière noire. Cependant, les théories actuelles avancent qu’une quantité phénoménale de trous noirs pourraient avoir été formés au sein de l’univers primitif* à cause de l’effondrement de régions très denses, et que la masse totale de ces trous noirs dits primordiaux* pourraient expliquer la présence de matière noire [2] (voir le supplément « La controverse sur les trous noirs en tant que candidats idéaux pour la matière noire perdure »). Mais cet aspect de l’univers est si peu connu que nos meilleures théories ne parviennent pas à prédire de façon certaine la masse des trous noirs primordiaux : s’ils existent, ils pourraient tout aussi bien ne peser que 10−5 g, plus ou moins le poids d’un cil, ou être aussi lourds qu’un milliard de soleils.
Les trous noirs issus de l’effondrement d’une étoile sont habituellement entourés d’un « halo » de gaz et de débris qui tourbillonnent rapidement autour d’eux. Cependant, les trous noirs primordiaux, s’ils existent, se sont formés bien avant les premiers atomes, ce qui les a laissés sans disque d’accrétion et les a rendus complètement noirs. Pour repérer un tel trou noir, les chercheurs essaient de détecter les effets gravitationnels qu’ils exercent sur la lumière. Les précédentes recherches de trous noirs par détection de leurs effets gravitationnels ont éliminé la possibilité de l’existence de quantité de trous noirs dont la masse est située entre 10 fois et 10−8 fois celle du soleil [3, 4], ce qui limite les modèles possibles qui permettent de justifier l’existence de matière noire à l’aide des trous noirs. Puis, en 2015, la collaboration LIGO-Virgo a détecté les premiers signaux d’activité gravitationnelle provenant d’une collusion de trous noirs [5]. Leur analyse a indiqué que les trous noirs qu’ils avaient détectés avait chacun une masse de plus de 25 fois celle du soleil, ce qui est bien plus lourd que la masse d’un trou noir classique formé à partir des vestiges d’une étoile qui se meurt. Cette découverte a alimenté des spéculations quant à la possible détection de trous noirs primordiaux par la collaboration LIGO-Virgo, et l’intérêt pour les trous noirs en tant que candidats pour l’existence de la matière noire fut renouvelé [6].
Durant leur étude, Zumalacárregui et Seljak ont cherché des trous noirs en exploitant l’effet de lentille gravitationnelle*, le même effet gravitationnel qui fut l’objet d'études précédentes. L’effet se produit lorsque le trajet de la lumière émise par un objet, disons une étoile, est courbé par la gravité générée par un autre objet, comme un trou noir, situé entre l’étoile et la Terre. Le trou noir agit comme une lentille et rend l’étoile plus brillante en apparence ; le degré de surbrillance de l’étoile dépend de la masse du trou noir (image 1). Les précédentes expériences à propos d’étoiles rendues plus brillantes par effet de lentille gravitationnelle s’étaient concentrées sur les Nuages de Magellan, une paire de galaxies naines* situées en orbite proche de la Voie Lactée [3, 4, 7]. La durée de ces expériences leur permet une plus grande sensibilité aux variations de luminosité d’une étoile, sur une échelle de temps qui va de quelques minutes à cinq ans, c’est à dire assez longtemps pour détecter le transit de trous noirs dont la masse est équivalente à jusqu’à 10 fois celle du soleil.
Impossible cependant de partir de la même approche pour observer de plus grands trous noirs, dont la fréquence de p assage serait d’un tous les dix ans voire plus. Au lieu de cela, Zumalacárregui et Seljak se sont tourné vers la surbrillance des supernovæ induite par effet de lentille gravitationnelle. L'éventail de supernovæ qu’ils ont observées, qui sont de type 1a, sont des chandelles standard*, elles possèdent une luminosité intrinsèque qui peut être calculée selon la vitesse à laquelle elle diminue. Mais à cause de l’effet de lentille, une supernova qui exploserait derrière un trou noir en transit apparaîtrait plus lumineuse que prévu par rapport à sa durée d’extinction. Rechercher des supernovæ rendues artificiellement brillantes élimine le besoin d’attendre le transit d’un trou noir devant un astre, en plus d’augmenter la sensibilité de détection des trous noirs dont la masse va de 0,01 fois à plusieurs milliers de fois celle du soleil.
Ces deux chercheurs ont analysé les signaux émis par plus de 1300 supernovæ réparties dans la majeure partie du ciel de l’hémisphère nord, sans trouver de supernovæ plus brillantes que prévues. En tenant compte de la profusion des différents types de trous noirs, ils ont également calculé la probabilité de passage fortuit d’un trou noir, dont la masse serait parmi celles détectables dans le cadre de l’expérience, entre la Terre et l’une des supernovæ observées pendant le temps imparti aux mesures. En s'appuyant sur leurs observations, ils ont conclu que la masse combinée de ces trous noirs pouvait justifier de seulement 40% de la présence de matière noire de l’univers.
Les travaux de Zumalacárregui et Seljak montrent que les trous noirs dont la masse équivaut à 0,01 fois celle du soleil n’existent pas en assez grand nombre pour expliquer la présence de toute la matière noire dans l’univers. Ces résultats, combinés à d'autres issus d’autres expériences[8], ont écarté l’idée que l’on pourrait justifier la présence de toute la matière noire avec les trous noirs. Il n’en reste pas moins impossible que les trous noirs pourraient constituer une petite partie de la matière noire, et que le reste serait constitué d’autres sources potentielles comme les particules massives à interaction faible* (aussi appelées WIMPS), les neutrinos* stériles* ou encore les axions*. C'est pour cette raison que les expériences de recherche de trous noirs continueront. Les futures études des supernovæ vont probablement renforcer les contraintes imposées par Zumalacárregui et Seljak sur la masse et la profusion des trous noirs dans l’univers. Par exemple, la mise en service imminente de l’Observatoire Vera C. Rubin, avec lequel il sera possible de simuler tout le ciel en trois jours, devrait augmenter de manière significative nos capacités à détecter des phénomènes de transit, qu’ils soient en rapport avec des supernovæ ou des étoiles rendues plus brillantes par effet de lentille gravitationnelle dû à la présence d’un trou noir ou d’un autre astre.
More
Less
Translation education
Master's degree - Université de Lille
Experience
Years of experience: 4. Registered at ProZ.com: Nov 2019.
English to French ( Université de Lille, verified) French to English ( Université de Lille, verified)
Memberships
N/A
Software
Adobe Acrobat, memoQ, MemSource Cloud, Microsoft Excel, Microsoft Office Pro, Microsoft Word, OmegaT, SDL Multiterm, Powerpoint, ProZ.com Translation Center, SDLX, Smartcat, Trados Studio