The purpose of this blog is the creation of an open, international, independent and free forum, where every UFO-researcher can publish the results of his/her research. The languagues, used for this blog, are Dutch, English and French.You can find the articles of a collegue by selecting his category. Each author stays resposable for the continue of his articles. As blogmaster I have the right to refuse an addition or an article, when it attacks other collegues or UFO-groupes.
Druk op onderstaande knop om te reageren in mijn forum
Zoeken in blog
Deze blog is opgedragen aan mijn overleden echtgenote Lucienne.
In 2012 verloor ze haar moedige strijd tegen kanker!
In 2011 startte ik deze blog, omdat ik niet mocht stoppen met mijn UFO-onderzoek.
BEDANKT!!!
Een interessant adres?
UFO'S of UAP'S, ASTRONOMIE, RUIMTEVAART, ARCHEOLOGIE, OUDHEIDKUNDE, SF-SNUFJES EN ANDERE ESOTERISCHE WETENSCHAPPEN - DE ALLERLAATSTE NIEUWTJES
UFO's of UAP'S in België en de rest van de wereld Ontdek de Fascinerende Wereld van UFO's en UAP's: Jouw Bron voor Onthullende Informatie!
Ben jij ook gefascineerd door het onbekende? Wil je meer weten over UFO's en UAP's, niet alleen in België, maar over de hele wereld? Dan ben je op de juiste plek!
België: Het Kloppend Hart van UFO-onderzoek
In België is BUFON (Belgisch UFO-Netwerk) dé autoriteit op het gebied van UFO-onderzoek. Voor betrouwbare en objectieve informatie over deze intrigerende fenomenen, bezoek je zeker onze Facebook-pagina en deze blog. Maar dat is nog niet alles! Ontdek ook het Belgisch UFO-meldpunt en Caelestia, twee organisaties die diepgaand onderzoek verrichten, al zijn ze soms kritisch of sceptisch.
Nederland: Een Schat aan Informatie
Voor onze Nederlandse buren is er de schitterende website www.ufowijzer.nl, beheerd door Paul Harmans. Deze site biedt een schat aan informatie en artikelen die je niet wilt missen!
Internationaal: MUFON - De Wereldwijde Autoriteit
Neem ook een kijkje bij MUFON (Mutual UFO Network Inc.), een gerenommeerde Amerikaanse UFO-vereniging met afdelingen in de VS en wereldwijd. MUFON is toegewijd aan de wetenschappelijke en analytische studie van het UFO-fenomeen, en hun maandelijkse tijdschrift, The MUFON UFO-Journal, is een must-read voor elke UFO-enthousiasteling. Bezoek hun website op www.mufon.com voor meer informatie.
Samenwerking en Toekomstvisie
Sinds 1 februari 2020 is Pieter niet alleen ex-president van BUFON, maar ook de voormalige nationale directeur van MUFON in Vlaanderen en Nederland. Dit creëert een sterke samenwerking met de Franse MUFON Reseau MUFON/EUROP, wat ons in staat stelt om nog meer waardevolle inzichten te delen.
Let op: Nepprofielen en Nieuwe Groeperingen
Pas op voor een nieuwe groepering die zich ook BUFON noemt, maar geen enkele connectie heeft met onze gevestigde organisatie. Hoewel zij de naam geregistreerd hebben, kunnen ze het rijke verleden en de expertise van onze groep niet evenaren. We wensen hen veel succes, maar we blijven de autoriteit in UFO-onderzoek!
Blijf Op De Hoogte!
Wil jij de laatste nieuwtjes over UFO's, ruimtevaart, archeologie, en meer? Volg ons dan en duik samen met ons in de fascinerende wereld van het onbekende! Sluit je aan bij de gemeenschap van nieuwsgierige geesten die net als jij verlangen naar antwoorden en avonturen in de sterren!
Heb je vragen of wil je meer weten? Aarzel dan niet om contact met ons op te nemen! Samen ontrafelen we het mysterie van de lucht en daarbuiten.
21-05-2024
Jeff Bezos Spent $42 Million To Build A Massive Clock That Will Outlast Humanity
Jeff Bezos Spent $42 Million To Build A Massive Clock That Will Outlast Humanity
Jeff Bezos spent $42 million to build a massive clock inside a mountain that ticks just once a year for the next 10,000 years. The “Clock of the Long NowLong Now“, also called the “10,000-year clock” is supposed to outlast humanity. The world’s richest man was fascinated by the idea proposed by the computer scientist and inventor Danny Hillis back in 1995.
Danny thought of building a clock that ticks only once a year. It would have a special hand that moves just once every 100 years and a bell that rings to mark every 1,000 years. Danny’s dream was, and still is, to create a clock that will keep working and keep time for the next 10,000 years. After many years of planning and designing, the final design of the clock is now ready, and they have started making the parts for it.
The clock is being built in the Sierra Diablo mountains in West Texas owned by Jeff Bezos. This clock is designed to last for thousands of years and will run using the Earth’s natural temperature changes. There will be five large rooms inside the clock, each celebrating a significant anniversary: the first year, the 10th year, the 100th year, the 1,000th year, and the 10,000th year. There is no information about when the construction of the clock will be finished. It is in a very remote area, and one has to take a long hike to get there. This journey is meant to make you think deeply and reflect.
The first prototype, on display at the Science Museum in London, 2005. Image Credit: Wikimedia Commons
In 1995, Danny explained: “I cannot imagine the future, but I care about it. I know I am a part of a story that starts long before I can remember and continues long beyond when anyone will remember me. I sense that I am alive at a time of important change, and I feel a responsibility to make sure that the change comes out well. I plant my acorns knowing that I will never live to harvest the oaks. I have hope for the future.” (Source)
When it’s finished, the mechanical clock tower will stand 500 feet tall. The clock is built to show time using displays that follow the movements of the stars and the calendar. It will also have a chime that can play more than 3.5 million different bell sounds. This clock is meant to be a symbol for our modern times, encouraging us to think about the long-term future. It is designed to get future generations involved in its upkeep and use.
The first chamber shows a model of the solar system that is smaller than the real one. The other rooms are meant for people in the future to add their contributions. Jeff Bezos is motivated by a desire to encourage long-term thinking and responsibility, which is similar to the ideas of Danny Hillis.
In 1986, Hillis expressed alarm that society had what he called a “mental barrier” of looking at the year 2000 as the limit of the future. He proposed a project to build a mechanical clock that would last 10,000 years. Image via YouTube
In the words of Stewart Brand, a founding board member of the foundation, “Such a clock, if sufficiently impressive and well-engineered, would embody deep time for people. It should be charismatic to visit, interesting to think about, and famous enough to become iconic in the public discourse. Ideally, it would do for thinking about time what the photographs of Earth from space have done for thinking about the environment. Such icons reframe the way people think.”
The clock is built to keep track of a future for civilization that is as long as the time that has already passed. This means the people who made the clock believe we are halfway through humanity’s existence. They see this as a positive and hopeful view of our future.
The basic design principles and requirements for the clock are:
Longevity: The clock should be accurate even after 10,000 years, and must not contain valuable parts (such as jewels, expensive metals, or special alloys) that might be looted;
Maintainability: Future generations should be able to keep the clock working, if necessary, with nothing more advanced than Bronze Age tools and materials;
Transparency: The clock should be understandable without stopping or disassembling it; no functionality should be opaque;
Evolvability: It should be possible to improve the clock over time;
Scalability: To ensure that the final large clock will work properly, smaller prototypes must be built and tested.
In 2011 Hillis was asked why he worked on the clock instead of his biotech startup for cancer research. He said: “I think this is the most important thing I can work on. More than cancer. Over the long run, I think this will make more difference to more people.”
Image Credit: Jeff Bezos/Twitter
Right now, there are three prototypes. The first one is in the Science Museum in London. The other two are at The Long NowLong Now Museum and Store in San Francisco. But there’s also another model on Jeff Bezos’ Texas ranch. People sometimes think that one is the original Long Now, but it’s not. Construction on that one has just started.
This mechanical clock needs people to wind it up using a falling weight, and it has a solar synchronizer to keep it accurate. Even if someone forgets to wind it, it will still work, just will not show the time. Instead of regular gears, it has special digital parts that help it keep track of time like a stopwatch does.
The Clock of the Long NowClock of the Long NowLong Now will be located on Foundation land in Nevada. Bezos’ is at his ranch in Texas, which also holds the Blue Origin spaceport and is now heavily under construction. The completion of this project will inform the final design of the Long Now, so we’re technically looking at two different projects rather than a single one and its prototype.
To build a clock, the engineers will use strong materials like titanium, ceramics, quartz, sapphire, and stainless steel. They will bury the most important part of the clock deep underground, 500 feet into a mountain, and seal it off with metal doors. The clock will be safe from damage because it is situated in a dry and remote place, away from civilization that will protect it from corrosion, vandalism, and development.
Danny chose this area of Nevada in part because it is home to a number of dwarf bristlecone pines, which the Foundation notes are nearly 5,000 years old. The clock will be almost entirely underground, and only accessed by foot traffic from the east once complete.
Building a clock that will last for 10,000 years is very challenging. It needs to be made with great accuracy, be strong enough to survive for a long time, and be able to cope with changes in the environment. However, there are worries about how the construction might affect the natural surroundings in that area.
Het landschap van door AI aangedreven humanoïde robots wordt steeds drukker. Tegenwoordig zijn er verschillende androïden die innovatieve prestaties beloven en soms handhaven: sommigen zetten koffie, anderen weten hoe ze stemmen moeten imiteren, weer anderen dragen grote ladingen. In zo’n context valt Astribot S1 echter op, een mensachtige robot ontwikkeld door een Chinees bedrijf die een ongekende combinatie van snelheid en precisie belooft. Kijkend naar de videopresentatie lijkt het of ze er echt in geslaagd zijn.
Een nieuwe robot geanimeerd door kunstmatige intelligentie
Astribot/Youtube
Stardust Intelligence is een innovatieve startup op het gebied van kunstmatige intelligentie en heeft in iets meer dan een jaar een mensachtige robot ontwikkeld die nu al buitengewone resultaten laat zien. Het geheim van Astribot S1 ligt in de integratie met kunstmatige intelligentie, waardoor het taken kan uitvoeren die als exclusief voor mensen worden beschouwd, en in het vermogen om op verschillende manieren te leren. We hebben het over het correct opvouwen van kleding, snelle bereiding van voedsel, nauwkeurig schrijven in Japanse kanji: we zullen het zien in de video "Hello world".
Volgens Stardust Intelligence vertegenwoordigt de Astribot S1 het hoogtepunt in het gebruik van kunstmatige intelligentie met androïden, zoals blijkt uit de video waarin de mensachtige robot aan de hele wereld wordt gepresenteerd. Bovendien kan S1 snelheden bereiken van 10 meter per seconde (mensen arriveren rond de 7) en is hij bestand tegen zware lasten.
Een behendigheid die de confrontatie met mensen niet schuwt
Astribot/Youtube
Het is logisch om je af te vragen hoe Astribot S1 zo snel en precies is in zijn bewegingen, zozeer zelfs dat het de exclusiviteit van sommige activiteiten, die tot nu toe als louter menselijk werden beschouwd, in twijfel trekt. Het bedrijf heeft geen technische details bekendgemaakt over het S1 AI-trainingsproces, noch over hoe het mogelijk was om het in iets meer dan een jaar te ontwikkelen, maar het is mogelijk om een beetje een idee te krijgen.
Allereerst lijkt het hybride ontwerp een winnende keuze: vanaf de taille heeft de Astribot S1 een basis met wielen, terwijl het bovenaan een mensachtige robot is. Aan de softwarekant kan het videogegevens verzamelen, nauwkeurige bewegingsregistratie uitvoeren en zelfs bewerkingen op afstand uitvoeren. In de videopresentatie zien we Astribot S1 een reeks taken uitproberen: de Android plaatst voorwerpen in bak, ontkurkt een fles, stofzuigt.
De toekomst van robotica
Astribot/Youtube
Stardust Intelligence zorgt ervoor dat de video’s op normale snelheid worden afgespeeld en geen manipulaties bevatten: als dit wel het geval zou zijn, zouden we de toekomst van robotica en de samenleving tegemoet treden. En misschien is dit wel het meest zorgwekkend. Astribot S1 ontleent zijn naam aan het Latijnse motto per aspera ad astra, wat “via moeilijkheden naar de sterren” betekent, en weerspiegelt de ambitie van Stardust Intelligence op het gebied van robotica. De mogelijkheden van de S1 lijken inderdaad zowel buitengewoon als onwerkelijk, alsof de toekomst op de deur klopt. Een deur die binnenkort opengaat: Astribot S1 is bijna klaar om op de markt te worden gebracht.
Aan de ene kant kan men daarom niet anders dan de enorme vooruitgang erkennen die is geboekt door het onderzoek naar kunstmatige intelligentie en de ontwikkeling van steeds snellere en nauwkeurigere androïden. Aan de andere kant is het legitiem om je af te vragen welke toekomst deze nieuwe machines kunnen bouwen. En wat ons aandeel daarin is.
A team of researchers says they have successfully created an immersive 3D augmented reality headset using ordinary glasses instead of the bulky apparatus employed by typical VR and AR headsets.
While still in the prototype phase, the researchers believe that their augmented reality 3D glasses could impact anything from gaming and social media environments to training and education applications.
“Our headset appears to the outside world just like an everyday pair of glasses, but what the wearer sees through the lenses is an enriched world overlaid with vibrant, full-color 3D computed imagery,” said Stanford’s Gordon Wetzstein, an associate professor of electrical engineering.
“There is no other augmented reality system out there now with comparable compact form factor, or that matches our 3D image quality,” added Gun-Yeal Lee, a postdoctoral researcher in the Stanford Computational Imaging lab and co-first author of the published paper outlining the team’s efforts.
BULKY HEADSETS HAVE LIMITED APPLICATION OF AUGMENTED REALITY
The Stanford researchers faced a number of technical hurdles in combining the benefits of current VR headsets with the versatility and ease of ordinary glasses. The first was reducing or replacing the complex optical systems used in bulkier headsets. That’s because these headsets don’t allow the viewer to see the landscape directly.
Instead, tiny cameras capture what the wearer is “looking” at and then project a viewable, 3D image on a tiny screen embedded within the device. For augmented reality purposes, any data used to aid the viewer is overlaid on this digital projection rather than appearing on top of the actual image.
“The user sees a digitized approximation of the real world with computed imagery overlaid,” explained Lee. “It’s sort of augmented virtual reality, not true augmented reality.”
Unfortunately, these types of headsets employ magnifying lenses between the user’s eye and the screen. To work properly, this layout requires a set distance between the eye, the lens, and the screen, resulting in the oversized, bulky headsets currently on the market. According to user experience, this setup can also detract from the overall immersive “realness” of the augmented reality experience, defeating the entire point of the system.
“Beyond bulkiness, these limitations can also lead to unsatisfactory perceptual realism and, often, visual discomfort,” explained Suyeon Choi, a doctoral student in the Stanford Computational Imaging lab and co-author of the paper.
80-YEAR-OLD TECHNIQUE MEETS CUTTING-EDGE SCIENCE TO BREAK TECHNOLOGICAL BARRIERS
Determined to overcome these obstacles, the Stanford researchers turned to a Nobel Prize-winning technology first developed in the 1940s: holography. According to the team, this technique has seen limited use in VR and #D systems due to issues with the depth perception of visual cues, “leading to an underwhelming, sometimes nausea-inducing, visual experience.”
Still, the researchers believed that holography was the key to eliminating the bulky lens-and-screen technique and creating a true, augmented reality headset that allows the viewer to see the real image while simultaneously receiving overlaid information about that image in real time. The key, they determined, was improving the 80-year-old holography techniques with the power of 21st-century AI computing to dramatically improve the depth cues of the projected holographic images.
“With holography, you also get the full 3D volume in front of each eye increasing the life-like 3D image quality,” said Brian Chao, a doctoral student in the Stanford Computational Imaging lab and also co-author of the paper.
The team also employed modern breakthroughs in nanophotonics and waveguide technologies, which increased the complexity and overall realness of the projected images. According to the press release announcing the breakthrough, “A waveguide is constructed by etching nanometer-scale patterns onto the lens surface. Small holographic displays mounted at each temple project the computed imagery through the etched patterns which bounce the light within the lens before it is delivered directly to the viewer’s eye.”
As a result, someone wearing the team’s new ordinary-looking glass lenses can see both the “real world” and the 3D computer-enhanced augmented reality images displayed on top of the world.
Through holography and AI, these glasses can display full-color, 3D moving images over an otherwise direct view of the real world.
Image credit: Andrew Brodhead.
POTENTIAL APPLICATIONS INCLUDE GAMING, MILITARY SIMULATIONS, AND ON-THE-JOB TRAINING
Having completed their initial prototype, the team says they can now envision a number of potential applications for their system. Some obvious uses include enhanced gaming or other recreational uses that have thus far eluded current bulkier headsets. However, the team says they believe their system could dramatically improve the work done by highly-trained experts in medicine or engineering.
“One could imagine a surgeon wearing such glasses to plan a delicate or complex surgery or airplane mechanic using them to learn to work on the latest jet engine,” said Manu Gopakumar, a doctoral student in the Stanford Computational Imaging lab and co-first author of the paper.
Although more work is expected before the augmented reality headset made from ordinary glasses is commercially available, the Stanford team says their ability to combine modern AI techniques and nanophotonic breakthroughs with 1940s holography is the step that folks in their industry have been waiting for.
“Holographic displays have long been considered the ultimate 3D technique, but it’s never quite achieved that big commercial breakthrough,” Wetzstein said. “Maybe now they have the killer app they’ve been waiting for all these years.”
Christopher Plain is a Science Fiction and Fantasy novelist and Head Science Writer at The Debrief. Follow and connect with him on X, learn about his books at plainfiction.com, or email him directly at christopher@thedebrief.org.
0
1
2
3
4
5
- Gemiddelde waardering: 0/5 - (0 Stemmen) Categorie:SF-snufjes }, Robotics and A.I. Artificiel Intelligence ( E, F en NL )
Would You Trust Robot to Look After Your Cat?
Would You Trust Robot to Look After Your Cat?
Scientists from the University of Nottingham and artists from Blast Theory have created Cat Royale, a multispecies world centered around a bespoke enclosure in which three cats and a robot arm coexist for six hours a day during a twelve-day installation.
“From cleaning our homes, to mowing our lawns, to delivering shopping and couriering items around hospitals, robots are finding their place in daily life,” said University of Nottingham’s Professor Steve Benford and colleagues.
“As they do so, they will inevitably interact with and be encountered by animals.”
“These might be companion animals, the pets who share our homes or the guide dogs who help us navigate public places, but they might also be wildlife.”
“Often these encounters will be unplanned and secondary to the robot’s intended task, for example cats riding Roombas, guide dogs being confused by delivery robots, or hedgehogs having to navigate in a world inhabited by lawn mowing robots.”
“However, they could also be intentional. We could design robots to serve animals too.”
“Despite the inevitability of such encounters, planned or otherwise, little is known about how to design robots for animals. Can we even trust them with each other?”
“We present Cat Royale, a creative exploration of designing a domestic robot to enrich the lives of cats through play.”
Schneiders et al. suggest it takes more than a carefully designed robot to care for your cat, the environment in which they operate is also vital, as well as human interaction.
Image credit: Schneiders et al., doi: 10.1145/3613904.3642115.
Cat Royale was launched in 2023 at the World Science Festival in Brisbane, Australia and has been touring since, it has just won a Webby award for its creative experience.
The installation centered around a robot arm offering activities to make the cats happier, these included dragging a ‘mouse’ toy along the floor, raising a feather ‘bird’ into the air, and even offering them treats to eat.
The team then trained an AI to learn what games the cats liked best so that it could personalize their experiences.
“At first glance, the project is about designing a robot to enrich the lives of a family of cats by playing with them,” Professor Benford said.
“Under the surface, however, it explores the question of what it takes to trust a robot to look after our loved ones and potentially ourselves.”
Working with Blast Theory to develop and then study Cat Royale, the researchers gained important insights into the design of robots and its interactions with the cats.
They had to design the robot to pick up toys, deploy them in ways that excited the cats, while it learned which games each cat liked.
They also designed the entire world in which the cats and the robot lived, providing safe spaces for the cats to observe the robot and from which to sneak up on it, and decorating it so that the robot had the best chance of spotting the approaching cats.
The implication is designing robots involves interior design as well as engineering and AI.
If you want to introduce robots into your home to look after your loved ones, then you will likely need to redesign your home.
“As we learned through Cat Royale, creating a multispecies system — where cats, robots, and humans are all accounted for — takes more than just designing the robot,” said Dr. Eike Schneiders, a researcher at the University of Nottingham.
“We had to ensure animal wellbeing at all times, while simultaneously ensuring that the interactive installation engaged the (human) audiences around the world.”
“This involved consideration of many elements, including the design of the enclosure, the robot and its underlying systems, the various roles of the humans-in-the-loop, and, of course, the selection of the cats.”
Eike Schneiders et al. Designing Multispecies Worlds for Robots, Cats, and Humans. CHI ‘24: Proceedings of the CHI Conference on Human Factors in Computing Systems, article #593; doi: 10.1145/3613904.3642115
Wetenschappers hebben plastic uitgevonden dat zichzelf op kan lossen. Ze hebben dit bereikt door het materiaal – letterlijk – nieuw leven in te blazen.
Het klinkt enigszins bizar, maar niks is minder waar: wetenschappers hebben ‘levend plastic’ uitgevonden. Uit het onderzoek blijkt ook al meteen dat het hier om een wondermiddel gaat: het nieuwe materiaal is sterker én flexibeler dan voorheen mogelijk was. Niet alleen dat; de grootste troefkaart van het levende plastic is nog wel het feit dat het zichzelf op kan lossen – zonder hulp van buitenaf. Wetenschapper Jon Pokorski is dan ook enthousiast. Hij legt uit: “Dit materiaal kan zichzelf afbreken zonder de aanwezigheid van andere microben. Het is goed mogelijk dat, in de toekomst, veel van dit soort plastic zal eindigen buiten een compostfabriek (waar het verwerkt kan worden, red.). Het vermogen om zichzelf af te breken maakt deze technologie dan ook een stuk veelzijdiger.” Het onderzoek is gepubliceerd in het blad Nature Communications.
Evolutie Het directe productieproces van het nieuwe materiaal blijkt verrassend simpel te zijn. Zo hebben de wetenschappers gebruik gemaakt van thermoplastic polyurethane (TPU); een zachte plasticsoort die veelvuldig gebruikt wordt voor, onder andere, memory foam. Vervolgens hebben ze gebruik gemaakt van de bacteriesoort Bacillus subtilis, een soort die bekend staat om het vermogen om plastic af te breken. Pokorski voegt toe: “Dit is een inherente eigenschap van deze bacteriën. We kozen uit een aantal bacteriemonsters en onderzochten welke het beste gebruik kon maken van TPU. Naderhand kozen we het exemplaar dat het beste kon groeien.”
Voor de laatste stap van het productieproces werden de ‘ingrediënten’ opgewarmd tot een temperatuur van 135 graden Celsius, waarna deze werden gemixt in een machine die plastic kan produceren. Er was hierbij echter sprake van een probleem: de bacteriesoort was, van origine, niet ingericht om deze temperatuur ook te overleven. Er was dus meer onderzoek nodig om ervoor te zorgen dat het productieproces goed verliep. Mede-onderzoeker Adam Feist heeft meegewerkt aan het onderzoek. Hij licht toe: “In het lab hebben we continu cellen laten evolueren om de hogere temperaturen aan te kunnen die nodig zijn voor de productie van TPU.” Dit proces bestond hoofdzakelijk uit het – heel praktisch – opwarmen van bacteriën naar steeds hogere temperaturen, om naderhand de overlevende exemplaren verder te kweken en de testen te herhalen. Feist laat weten: “Uiteindelijk kwamen we uit bij een exemplaar dat de intense hitte aankon. Het was opmerkelijk hoe goed dit proces van bacteriële evolutie en selectie uiteindelijk bleek te werken.”
Verbeteringen Het nieuwe materiaal is interessant, omdat het zichzelf voor 90% op kan lossen in slechts vijf maanden tijd. Daarnaast lijken de bacteriën het plastic ook te versterken en te versoepelen. Pokorski vult aan; “Beide eigenschappen werden sterk verbeterd na de komst van de bacteriën. Dit is fantastisch, omdat de toevoeging van de bacteriesoort dus de mechanische eigenschappen van het materiaal ver voorbij de huidige grenzen kon duwen. Eerder bestond er altijd een balans tussen stevigheid en flexibiliteit.”
De wetenschappers hebben echter nog wel een hoop vervolgonderzoek te doen. Zo is vooralsnog onbekend wat er uiteindelijk overblijft van het plastic – nadat het zichzelf heeft afgebroken. De wetenschappers speculeren dat het restant niet schadelijk zou moeten zijn, omdat B. subtilis doorgaans goed voor de gezondheid is van mensen, dieren en planten. De wetenschappers laten weten dat ze, in de toekomst, het onderzoek willen herhalen met meer soorten plastic. Feist sluit af: “Er bestaan veel verschillende soorten commercieel plastic, TPU is er hier slechts één van. Voor ons vervolgplan willen we meer afbreekbare materialen maken die leunen op deze technologie.”
Here’s another terrifying look into the future of AI, courtesy of Microsoft.
Microsoft introduced the VASA-1 research project that can take a single image and an audio clip and transform it into a high-quality video of a talking head that looks eerily similar to the real thing. We have to stress that it’s just a research project at the moment, meaning it’s not readily accessible, but that doesn’t make it any less disconcerting.
There are innocuous examples with VASA-1, like infusing Mona Lisa with Anne Hathaway’s rap skills but we’re more concerned about the likelihood that this will be used to create deepfakes with a more nefarious purpose — think spreading misinformation or carrying out identity theft.
It’s unsettling how easy it is to churn out a video avatar with VASA-1.
MICROSOFT
A SIMPLE RECIPE
Microsoft explains that you simply upload an image and an audio recording and VASA-1 spits back out a 512 x 512 resolution video with up to 40 fps and barely any latency. Looking at the demos, VASA-1 does a convincing job syncing the audio to the lip movements and can even deliver emotions and expressions through subtle facial movements with eyebrows and head nods.
To finetune the result, VASA-1 lets you control where the generated avatar is looking, how close the model is, and the emotion you want to convey. You can go with a standard neutral expression or inject some happiness, anger, or surprise into your AI-generated video.
On a more unrealistic note, VASA-1 can also handle source material like paintings or singing audio. As convincing as all of these models are, we can still see slight irregularities like some rippling around the ears or an unnatural warping effect with big head movements.
VASA-1 can even be tweaked to convey certain emotions like happiness, anger, and surprise.
MICROSOFT
JUST A TASTE OF VERSION 1
As the name hints, VASA-1 is only the first model for Microsoft’s overall VASA framework, meaning this could (or likely will) be improved upon. These initial example videos generated from VASA-1 are only demonstrations of the research project’s capabilities thus far, so again, there aren’t any plans to push this into the public’s hands yet.
“We have no plans to release an online demo, API, product, additional implementation details, or any related offerings until we are certain that the technology will be used responsibly and in accordance with proper regulations,” Microsoft noted on its website.
As concerning as this tech is and Microsoft does acknowledge its potential for misuse, the research team argues that there are a lot of upsides here. For example, VASA-1 could be used to ensure everyone gets an equal opportunity at education, assist those with communication issues, or even just offer a friendly face to those who need it. Still, if we were placing bets, I’d lean towards tech of this caliber being used for the wrong purposes.
A team of scientists from the University of Tokyo has revealed a major breakthrough that allows them to create realistic 3D holographic displays using an ordinary iPhone screen.
While conventional approaches to holography involve complex and expensive laser emitters that have limited their practical use, the researchers behind this novel approach say their work could lead to dramatic improvements in holographic displays for virtual reality applications, including gaming, training, and even advanced military applications.
3D HOLOGRAPHIC DISPLAYS LIMITED BY COST AND COMPLEXITY
In science fiction, holograms are used for anything from basic communications to advanced military weaponry. In the real world, 3D holographic displays have yet to break through to everyday products and devices. That’s because creating holograms that look real and have significant fidelity requires laser emitters or other advanced pieces of optical equipment. This situation has stymied commercial development, as these components are complex and expensive.
More recently, research scientists were able to create realistic 3D holographic images without lasers by using a white chip-on-board light-emitting diode. Unfortunately, that method required two spatial light modulators to control the wave fronts of the emitted light, adding a prohibitive amount of complexity and cost.
Now, those same scientists say they have created a simpler, more cost-effective way to create realistic-looking 3D holographic displays using only one spatial light modulator and new software algorithms. The result is a simpler and cheaper method for creating holograms that an everyday technology like a smartphone screen can emit.
IPHONE 14 SCREEN CREATES REALISTIC HOLOGRAMS
“Although holography techniques can create a very real-looking 3D representation of objects, traditional approaches aren’t practical because they rely on laser sources,” said research team leader Ryoichi Horisaki from The University of Tokyo in Japan. “Lasers emit coherent light that is easy to control, but they make the system complex, expensive, and potentially harmful to the eyes.”
To conquer this limitation, Horisaki’s team wanted to see if they could use lower-cost technology and the power of advanced computer algorithms to create a 3D holographic display that would rival displays using lasers. The key, they say, is a technology known as computer-generated holography (CGH) paired with a simple component known as a spatial light modulator.
Researchers developed a 3D full-color display method that uses a smartphone screen, rather than a laser, to create holographic images. Shown are their experimental results, in which a continuous transition from the first layer to the second layer is observable. CREDIT: Ryoichi Horisaki, The University of Tokyo
To demonstrate their potential breakthrough approach, the researchers created a two-layer optical reproduction of a full-color three-dimensional image. The first layer is projected by the spatial light modulator, and the second layer is projected by the screen off of an iPhone 14 smartphone.
Next, the team’s customized algorithms coordinated the display of the two images to create a realistic-looking 3D holographic display that resembled those produced by expensive laser systems.
While the approach seems simple on the surface, the scientists say it is incredibly complex.
“It required carefully modeling the incoherent light propagation process from the screen and then using this information to develop a new algorithm that coordinated the light coming from the device screen with a single spatial light modulator,” they explain.
Fortunately, that work paid off, resulting in a new approach to designing and projecting realistic holographic displays that are significantly simpler and less expensive than the industry standard.
“This work aligns with our laboratory’s focus on computational imaging, a research field dedicated to innovating optical imaging systems by integrating optics with information science,” said Horisaki. “We focus on minimizing optical components and eliminating impractical requirements in conventional optical systems.”
“Holographic displays that use low-coherence light could enable realistic 3D displays while potentially reducing costs and complexity,” added Otoya Shigematsu, the paper’s first author. “Although several groups, including ours, have demonstrated holographic displays using low-coherence light, we took this concept to the extreme by using a smartphone display.”
NEW APPROACH COULD REVOLUTIONIZE VIRTUAL REALITY
In their study, which is published in the journal Optical Letters, the scientists behind the new method for generating 3D holographic displays say their current work only created a demonstration of their approach and that more work would be needed to apply it to commercial, military, and industrial applications.
First author Otoya Shigematsu is shown in the laboratory with the optical experiment setup used for the work.
CREDIT: Ryoichi Horisaki, The University of Tokyo.
However, they say the basic science behind the integration of computer algorithms and simple display technologies is a huge step toward dramatic improvements in virtual reality devices like headsets used in virtual gaming environments. In fact, they believe that their method is actually safer than traditional approaches, especially when used in close-up displays like VR headsets.
“We believe that this method could eventually be useful for minimizing the optics, reducing costs, and decreasing the potential harm to eyes in future visual interfaces and 3D display applications,” said Shigematsu. “More specifically, it has the potential to enhance the performance of near-eye displays, such as the ones being used in high-end virtual reality headsets.”
The scientists say they are now working on improving their algorithms to increase the number of layers and, therefore, the digital information they can display. If successful, they say they could create even more complex and realistic 3D holographic displays.
Christopher Plain is a Science Fiction and Fantasy novelist and Head Science Writer at The Debrief. Follow and connect with him on X, learn about his books at plainfiction.com, or email him directly at christopher@thedebrief.org.
De meest indrukwekkende dingen ooit gemaakt met een 3D-printer Iedereen en hun buurman weten dat de wereld met elke nieuwe dag exponentieel sneller verandert. Maar een van de meest fascinerende revoluties die plaatsvinden in laboratoria over de hele wereld is de opkomst van 3D-printen. Van dingen die je kunt eten tot vervangingen voor voeten en alles daartussenin.
LEES VERDER om enkele van de meest indrukwekkende dingen te zien die 3D-printers ooit hebben gemaakt.
Een hart Israëlische wetenschappers van de Universiteit van Tel Aviv hebben naar verluidt 's werelds eerste 3D-geprinte, gevasculariseerde technische hart gecreëerd.
Ongeboren baby Een Ests 3D-technologiebedrijf besloot het ultieme zwangerschapssouvenir te maken, waardoor ouders de kans krijgen hun baby aan te raken voordat deze zelfs maar geboren is.
Ongeboren baby Nadat ze zorgvuldige foto's hebben gemaakt, printen ze 3D-foetusmodellen zo gedetailleerd dat je al hun vingers kunt tellen en kunt zien wiens neus de baby heeft!
Jezelf Je maakt eerst een fotografische scan van 360 graden van een persoon en geeft deze vervolgens weer in een digitaal 3D-model (en retoucheert het model zodat het voldoet aan de vereisten voor afdrukken). De drukmachine gebruikt dit digitale model vervolgens om een solide figuur met hoge resolutie te produceren.
Een wervelkolom-as Een kunstmatige 3D-geprinte as, de eerste die ooit met succes in de wervelkolom van een botkankerpatiënt is geïmplanteerd, wordt geïmplanteerd in een model in het Peking University Third Hospital in Beijing.
Prothetische onderarm De Taiwanese ingenieur Chang Hsien-Liang verloor zijn onderarm bij een ongeval en was zeer ontevreden over zijn prothetische opties. Daarom ontwierp en bouwde hij zijn eigen prothetische onderarm met behulp van 3D-printtechnologie!
Een toekansnavel Grecia de toekan verloor het grootste deel van zijn bovensnavel bij een aanval, maar hij kan nu eten met zijn 3D-geprinte snavel in het dierenasiel Zoo Ave in Alajuela, Costa Rica.
Ijsje Bedrukte lekkernijen die je kunt eten! In de Iceason-winkel in Shanghai worden deze kleine karakters gemaakt van ijs met aardbeienmelksmaak en vervaardigd door een 3D-printer.
Een chocoladebierflesje Gaetan Richard, oprichter van het 3D-printchocoladebedrijf Miam Factory, maakt iets waarvan je niet wist dat je het nodig had: een chocoladebierflesje.
Een motor Ontwerper Marco Mattia Cristofori, van de Duitse 3D-printerfabrikant BigRep, creëerde een bijna volledig 3D-geprinte e-motorfiets, genaamd "NERA".
Een auto Tijdens een rondleiding door Techmer PM, een kunststofproductiebedrijf in Tennessee, wierp Barack Obama een blik op een 3D-geprinte Shelby Cobra.
Vliegtuigstoelen Airgo's 3D-geprinte prototype van hun Orion-vliegtuigstoelen voor lange afstanden ziet er zeker uit als een upgrade van een touringcar.
Viool Hier poseert de Franse ingenieur en professionele violist Laurent Bernadac met een 3D-geprinte viool gemaakt van transparante hars, de "3Dvarius" genoemd.
Kunststof werkende pistolen In 2014 werd Yoshimoto Imura de eerste man die in Japan werd gearresteerd wegens illegaal bezit van twee plastic pistolen die hij zelf had gemaakt met behulp van 3D-printtechnologie.
Huisvesting Onderzoekers van de Universiteit van Nantes in Frankrijk hebben het startschot gegeven voor een 3D-geprint sociaal woningbouwgebouw genaamd 'Yhnova'
Geavanceerde geometrische structuren De M1 3D-printer bij Carbon in Redwood City, Californië concurreert met de ingewikkelde creaties van de natuur zelf.
0
1
2
3
4
5
- Gemiddelde waardering: 0/5 - (0 Stemmen) Categorie:SF-snufjes }, Robotics and A.I. Artificiel Intelligence ( E, F en NL )
29-03-2024
Study: Introduced Tardigrade Proteins Slow Metabolism in Human Cells
Study: Introduced Tardigrade Proteins Slow Metabolism in Human Cells
New research led by the the University of Wyoming, Laramie, provides additional evidence that tardigrade proteins eventually could be used to make life-saving treatments available to people where refrigeration is not possible and enhance storage of cell-based therapies.
Sanchez-Martinez et al. provide insights into how tardigrades induce reversible biostasis through the self-assembly of labile CAHS gels.
First discovered in 1773, tardigrades are a diverse group of microscopic invertebrates that are best known for their ability to survive extreme conditions.
Also known as water bears or moss piglets, these creatures can live for up to 60 years, and grow to a maximum size of 0.5 mm, best seen under a microscope.
They are able to survive for up to 30 years without food or water, for a few minutes at temperatures as low as minus 272 degrees Celsius (minus 457 degrees Fahrenheit) or as high as 150 degrees Celsius (302 degrees Fahrenheit), and minus 20 degrees Celsius (minus 4 degrees Fahrenheit) for decades.
Tardigrades withstand pressures from virtually 0 atm in space up to 1,200 atm at the bottom of the Marianas Trench, and are also resistant to radiation levels up to 5,000-6,200 Gy.
They survive by entering a state of suspended animation called biostasis, using proteins that form gels inside of cells and slow down life processes.
“Amazingly, when we introduce these proteins into cells, they gel and slow down metabolism, just like in tardigrades,” said Dr. Silvia Sanchez-Martinez, a researcher at the University of Wyoming, Laramie.
“Furthermore, just like tardigrades, when you put human cells that have these proteins into biostasis, they become more resistant to stresses, conferring some of the tardigrades’ abilities to the human cells.”
“Importantly, our research shows that the whole process is reversible,” said Dr. Thomas Boothby, a researcher at the University of Wyoming, Laramie.
“When the stress is relieved, the tardigrade gels dissolve, and the human cells return to their normal metabolism.”
“Our findings provide an avenue for pursuing technologies centered on the induction of biostasis in cells and even whole organisms to slow aging and enhance storage and stability.”
S. Sanchez-Martinezet al. 2024. Labile assembly of a tardigrade protein induces biostasis.Protein Science33 (4): e4941; doi: 10.1002/pro.4941
Casually having a conversation with a robot butler might not be as far out as we thought.
Figure, an AI robotics company that’s attracted the financial backing of Microsoft and Nvidia, showed off why it deserves that investment money. In its latest demo, its Figure 01 is seen having a full-on conversation with another human, even completing tasks and requests.
The eerily conversational robot is a result of Figure’s robotic design and OpenAI’s intelligence on the backend. It may not be able to backflip off a skateboard, but the demo shows Figure 01 handing over an apple and putting away dishes. That’s not incredibly groundbreaking, but with how fast ChatGPT and other large language models are advancing, Figure 01 could see advancements quickly.
LAPPING THE COMPETITION
It’s impressive to see Figure 01 smoothly navigate anormal conversation with a human, all while responding to requests and handling simple tasks. Of course, putting away dishes isn’t the most complex task, but it’s a promising start considering how Figure 01 can already identify what’s in front of it and respond accordingly in real-time.
It’s a big difference compared to the demos we saw with Tesla’s Optimus bot. While Tesla has come out with a second-generation model already, Optimus has yet to show us the same fluidity and responsiveness we’re seeing with the Figure 01 demo.
Figure says the goal is to make a “fully electromechanical humanoid” robot to handle all the physical tasks that humans have to do. So far, the Figure 01 stands 5’6”, weighs more than 132 lbs, can handle payloads up to around 44 lbs, and tops out a brisk 1.2 m/s. Figure also says there’s a runtime of five hours, so it’s not quite meant to cater to your needs 24/7.
Figure debuted its 01 humanoid robot back in October.
FIGURE / X
NO RELEASE DATE YET
With Figure 01, it does feel like we’re inching towards a future of at-home robots. Still, we don’t have a release date for Figure’s robot yet, but the company’s founder and CEO Brett Adcock has already said that the company wants to produce its robots at “exceptionally high volume.”
Figure hasn’t detailed any prices for its robot yet, either, but Adcock expressed optimism for trying to bring the costs down to “affordable levels.” Considering how nascent this technology is, it’s tough to determine what’s affordable or not. For reference, Tesla’s CEO Elon Musk previously said that the Optimus robot is targeting a price of around $20,000.
A sophisticated new underwater sensor system is currently in development for the United States Navy that will aim to replicate the capabilities and detection range of one of nature’s most unique aquatic mammals.
The innovative sensor array, currently in development by researchers at Rochester Institute of Technology (RIT) with funding from the Naval Research Laboratory, reportedly aims to replicate the “superior design and detection range” possessed by harbor seals.
Inhabiting the ocean waters of the North Atlantic and Northern Pacific, harbor seals are renowned for their prowess as swimmers and aquatic hunters. Now, according to Xudong Zheng, an associate professor in RIT’s Kate Gleason College of Engineering, a unique capability these ocean mammals possess is also serving as inspiration for the development of a new sensor array for the Navy that will possess “biological-level sensitivity, accuracy, and intelligence.”
The Navy says such an advanced underwater sensor system could be used to track anomalies, in addition to aiding scientific exploration of our oceans and advancing the robotic capabilities it uses during stealth operations at sea.
Zheng says the new system he and his team are building will be “the next stage of development of stronger sensors,” adding that early results already indicate that it could help facilitate new capabilities that will help to allow “more smart perceptions and better reasoning regarding the signal pattern and how it corresponds to flow patterns.”
Additionally, Zheng and his team say they hope to improve the way the Navy’s underwater sensors can be used to collect information on the three-dimensional aspects of objects, enabling better and more consistent recognition. The team also plans to leverage artificial intelligence in ways that will further enhance the sensor system’s capabilities when operating within a variety of marine environments.
Above: Zheng (center) appears with his wife and fellow researcher Qian Xue (right) and researcher Dongfang Liu, as he displays a harbor seal’s whiskers, which inspired the team’s research (Credit: Travis Lacoss/RIT).
To achieve this, Zheng’s team drew inspiration from one of nature’s best existing underwater sensor systems.
“We are trying to mimic seals’ highly sensitive sensors using the bio-inspired shape of their whisker array,” Zheng said in a statement, adding that these marine mammals have the ability to detect disturbances nearby at an astounding rate of 254 microns per second. This is made possible in part due to the lengths and placement of their whiskers, which allow the creatures to gauge everything from speed, distance, movement, and location with astounding speed and accuracy.
Although Zheng’s team isn’t the first researchers to draw inspiration from seal’s whiskers, existing systems that work on similar principles only provide individual measurements. By mimicking a harbor seal’s natural sensor capabilities, Zheng’s team hopes they consolidate each of these detection mechanisms into a single game-changing underwater sensor array.
Current sensors that are only capable of single measurements are greatly limited in the detection of spatial information, which involves the visualization of objects from several perspectives and provides information about their relationship to their surroundings.
Zheng says the integration of comprehensive spatial recognition, paired with artificial intelligence, will be two of the primary keys that will allow the new system he and his team are designing to improve sensor accuracy overall.
The new effort is an outgrowth of Zheng’s past work, which involved studies in biomechanics and flow physics in the Department of Mechanical Engineering at Kate Gleason College.
Aided by his wife and research partner Qian Xue, also a Rochester Institute of Technology associate professor of mechanical engineering and an expert in flow-structure interaction, the duo says they are “designing very sensitive sensors that can be tightly packed into smaller spaces and that can extract spatial information,” which allows the sensors to “recognize the surrounding environment with an algorithm to accurately predict the shape of an object.”
“Based on this information, we can understand why this signal corresponds to certain types of bodies, or objects,” Zheng said in a statement, adding that their designs will implement additional technologies being undertaken at RIT to help broadly improve the capability and accuracy of the new sensors they are developing.
Zheng and the team’s current findings are outlined in the latest edition of the journal Frontiers in Robotics and AI.
Researchers from Delft University of Technology in the Netherlands have developed a new artificial intelligence (AI) tool known as “Deep-DRAM” to discover and fabricate novel metamaterials with unparalleled ease and accessibility.
The groundbreaking method promises to revolutionize metamaterial development by streamlining the discovery and creation of durable, custom-designed materials with “unprecedented functionalities” and “unusual properties.”
“Traditionally, designers use the materials available to them to design a new device or a machine. The problem with that is that the range of available material properties is limited. Some properties that we would like to have just don’t exist in nature,” study co-author and professor of biomechanical engineering, Dr. Amir Zadpoor, explained in a press release by Delft University.
“Our approach is: tell us what you want to have as properties and we engineer an appropriate material with those properties. What you will then get is not really a material but something in-between a structure and a material, a metamaterial.”
Metamaterials are materials engineered to have properties not found in naturally occurring substances. These engineered composites can defy conventional material properties by deriving their unique characteristics from a structure’s geometry rather than molecular composition.
Metamaterials are currently employed in various industries, serving practical purposes such as improving antenna performance in telecommunications and controlling sound waves for noise reduction or focusing in acoustic engineering. Recent advancements include creating the world’s first genuine “one-way glass,” showcasing metamaterials, versatility, and potential for innovative applications.
In 2006, two research papers published in Sciencedemonstrated that metamaterials could be used to manipulate the propagation and transmission of specified light frequencies and electromagnetic radiation to render an object invisible.
Recent publications from Sandia National Laboratories, the U.S. Naval Institute, and Northrop Grumman have discussed the military potential of metamaterials, suggesting the possibility of creating real-life versions of the fictional “Klingon Cloaking Device” or “Harry Potter Invisibility Cloak.” However, despite ongoing research efforts, practical metamaterial cloaking technology has yet to be publicly demonstrated thus far.
This most significant challenge in developing novel metamaterials stems from solving the so-called “inverse problem” or calculating the specific geometry needed to produce desired properties.
“Even when inverse problems were solved in the past, they have been limited by the simplifying assumption that small-scale geometry can be made from an infinite number of building blocks,” lead author Dr. Helda Pahlavani explained. “The problem with that assumption is that metamaterials are usually made by 3D printing and real 3D printers have a limited resolution, which limits the number of building blocks that fit within a given device.”
Enter Deep-DRAM: an AI-driven modular framework combining deep learning models, generative models, and finite element simulations to address these challenges head-on.
Researchers say Deep-DRAM stands out by tackling the inverse design problem from a new angle, enabling the creation of materials with tailored properties such as double auxeticity (materials that expand in two directions when stretched) and high stiffness.
Dr. Pahlavani underscored the importance of Deep-DRAM being able to overcome previous constraints, stating, “We can now simply ask: how many building blocks does your manufacturing technique allow you to accommodate in your device? The model then finds the geometry that gives you your desired properties for the number of building blocks that you can actually manufacture.”
In a paper published in the journal Advanced Materials, researchers detailed how the application of Deep-DRAM extends beyond theoretical advancements, showcasing real-world implications through extensive simulations and 3D-printed specimens.
Researchers note that the framework’s ability to generate microarchitectures resistant to fatigue and fracture highlights Deep-DRAM’s potential to produce metamaterials that are not only innovative but also durable and reliable for practical applications.
This focus on durability differs from most existing metamaterial designs, which often fail after repeated use.
“So far, it has been only about what properties can be achieved,” Dr. Zadpoor described the current processes for developing metamaterials. “Our study considers durability and selects the most durable designs from a large pool of design candidates. This makes our designs really practical and not just theoretical adventures.”
Researchers say that one of the remarkable aspects of Deep-DRAM is its modular design, allowing for the integration of various computational models to solve complex design problems efficiently. This modular approach accelerates the design process and minimizes computational costs, making it an attractive option for a wide range of applications.
The implications of the innovative Deep-DRAM framework extend far beyond the laboratory, offering tangible solutions to real-world challenges. With the ability to tailor durable metamaterials to specific needs, industries ranging from healthcare to aerospace could benefit immensely from this recent marriage of Artificial intelligence and material science.
Assistant Professor Dr. Mohammad J. Mirzaali, who also served as a corresponding author of the study, says the potential of metamaterials is limitless. However, because their optimal design has historically relied on intuition and trial and error, the metamaterials’ full potential has never been truly realized.
Yet, researchers believe the AI-driven inverse design process of Deep-DRAM could revolutionize the development of metamaterials, opening avenues for applications such as orthopedic implants, surgical instruments, soft robots, adaptive mirrors, and exosuits.
“We think the step we have taken is revolutionary in the field of metamaterials,” said Dr. Mirzaali. “It could lead to all kinds of new applications.”
Tim McMillan is a retired law enforcement executive, investigative reporter and co-founder of The Debrief. His writing typically focuses on defense, national security, the Intelligence Community and topics related to psychology. You can follow Tim on Twitter:@LtTimMcMillan. Tim can be reached by email: tim@thedebrief.org or through encrypted email:LtTimMcMillan@protonmail.com
Het is Amerikaanse onderzoekers gelukt om ge-3D-print hersenweefsel te laten communiceren en functioneren als een echt menselijk hersennetwerk.
Om beter te begrijpen wat er in de hersenen gebeurt van iemand met bijvoorbeeld de ziekte van Alzheimer of Parkinson, zijn driedimensionale hersenmodellen nodig. Zo’n model lijkt namelijk goed op natuurlijk menselijk weefsel – meer dan cellen in een petrischaaltje.
3D-printers worden al een aantal jaren gebruikt om menselijk weefsel in 3D na te maken, ook voor hersenen. Maar het blijkt nog knap lastig om de communicatie van de cellen in het weefsel te zien. Amerikaanse onderzoekers van de Wisconsin-Madison Universiteit zijn er met een paar aanpassingen eindelijk in geslaagd.
Dikke inkt
Een 3D-printer bouwt laagjes één voor één op elkaar. Dat kan in verschillende vormen en met verschillende materialen, afhankelijk van het doel. Voor het 3D-printen van hersenweefsel wordt een bio-inkt gebruikt. Dat is een natuurlijke gel waar stamcellen in zitten en die lijkt op menselijk hersenweefsel.
Voorheen maakten onderzoekers hersenweefsel na door de bio-inkt in laagjes op te stapelen in een verticale structuur. Na het 3D-printen voegden ze er voedingsstoffen en zuurstof aan toe. De stamcellen kunnen zich vervolgens ontwikkelen tot zenuwcellen en groeien naar elkaar toe, om een groot communicerend netwerk te vormen. Tenminste, dat is het idee. Tot nu toe is het nog niet gelukt om met deze methode ook echt functionerend hersenweefsel na te bootsen.
Hetgeen waar onderzoekers tegenaan lopen, is dat de gebruikte gel te dik is. De cellen blijven dan namelijk aan elkaar plakken, waardoor voedingstoffen zich minder makkelijk verspreiden en dat remt de groei van zenuwen. Er ontstaat dan ook geen functionele verbinding tussen de zenuwcellen, zoals in echt hersenweefsel, dus ook geen communicatie tussen deze lagen.
Horizontale structuur
De Amerikaanse onderzoekers hebben het nu anders aangepakt. Met de 3D-printer plaatsten ze het weefsel in een horizontale structuur naast elkaar – in plaats van een verticale. Dat zorgt voor meer stevigheid, waardoor een dikke gel niet meer nodig is.
Bio-inkt gemaakt van een dunnere gel maakt de structuur van het geprinte weefsel zacht, maar is nog steeds stevig genoeg om één geheel te blijven. De onderzoekers hebben met de nieuwe gel verschillende onderdelen van het hersenweefsel naar elkaar toe laten groeien om een hecht netwerk te vormen. Alleen op die manier kan er communicatie tussen de cellen plaatsvinden, en dat maakt het een belangrijke doorbraak. Dat vertelt Regina Luttge, microsysteemonderzoeker en groepsleider neuro-nanoscale engineering aan de Technische Universiteit Eindhoven, aan KIJK.
Parkinson en alzheimer
Met deze doorbraak kunnen wetenschappers beter onderzoeken hoe hersencellen met elkaar communiceren. Bijvoorbeeld bij hersenziekten zoals alzheimer en parkinson zit er een aanpassing in sommige hersencellen. Experts weten wat die aanpassing is, maar niet hoe de hersenen zich daarna gedragen. Met het ge-3d-printe hersenweefsel is dat binnenkort een stuk beter te onderzoeken.
Though we're still a ways off from generating usable energy this way, the result shows promise for the field.
Interior of the Joint European Torus (JET) tokamak experimental fusion machine with a photo of the plasma overlaid.
(Image credit: United Kingdom Atomic Energy Authority, courtesy of EUROfusion)
Since 1983, scientists have used England's Joint European Torus (JET) to recreate nuclear fusion, the merging of atoms that powers the sun and other stars, in Britain. An effective nuclear fusion setup could give us immense quantities of clean energy.
Now, during the last days of its four-decade-long life, JET has set a new record for the most energy created in a single fusion reaction. JET's new record is the latest milestone in an exciting few years for fusion. With each milestone, fusion scientists inch closer — slowly, very slowly, but steadily — toward constructing a commercial fusion power plant that can plug into the grid.
"JET's final fusion experiment is a fitting swansong after all the groundbreaking work that has gone into the project since 1983," UK Minister for Nuclear and Networks, Andrew Bowie, said in a statement. "We are closer to fusion energy than ever before thanks to the international team of scientists and engineers in Oxfordshire."
However, while JET did set a record for raw energy, it did not set a record for yield. That's the ratio of energy produced to the energy that scientists put in to trigger fusion in the first place. JET once held that record, too, but the National Ignition Facility (NIF) in California’s Lawrence Livermore National Laboratory surpassed it in 2022.
In fact, NIF was the first fusion facility in the world to do something that JET could not do: elicit a yield of more than 1, or, in other words, create more energy than scientists put in. As of late 2023, NIF has achieved yields of close to 2.
Tempting as it is to compare the two experiments, doing so directly is difficult. NIF is an example of inertial confinement fusion (ICF). NIF's apparatus relies on blasting a fuel-stuffed capsule with lasers, creating intense X-ray cascades that compress the fuel into fusion. JET, on the other hand, is a tokamak, or a doughnut-shaped container stuffed with superheated plasma. By magnetically sculpting the plasma, a tokamak's operators can ignite fusion.
For JET, this record means that the facility can end its life on a triumphant note. Its operators have already begun the lengthy process of decommissioning the reactor. But JET's end is certainly not the end for tokamak science. JET is a testbed for the International Thermonuclear Experimental Reactor (ITER): a future reactor set to launch in 2025, with an eye of testing tokamak tech for a line of future reactors even farther in the future.
Courtesy of O. A. Hurricane/LLNL
Figure 1: Part of the inertial-confinement-fusion system at the National Ignition Facility at Lawrence Livermore National Laboratory in California.
H. Abu-Shawareb et al. (Indirect Drive ICF Collaboration) [1]
Figure 2: The volume of the fusion-reaction region inside the capsule increases from left to right by a factor of 4. This volume increase corresponds to a 20-fold increase in the fusion-energy yield of the system.
QuEra has dramatically reduced the error rate in qubits — with its first commercially available machine using this technology launching with 256 physical qubits and 10 logical qubits.
The new machine, which has 256 physical and 10 logical qubits, is expected to launch in late 2024.
(Image credit: bpawesome/Getty Images)
The world's first commercial fault-tolerant quantum computer with "logical qubits" may be running before the year's end.
Logical qubits — physical quantum bits, or qubits, connected through quantum entanglement — reduce errors in quantum computers by storing the same data in different places. This diversifies the points of failure when running calculations.
The announcement follows a new study, published Dec. 6, 2023 in the journal Nature, in which researchers from Harvard, QuEra and several other institutions demonstrated a functioning quantum computer that contained 48 logical qubits — the largest number of logical qubits tested to date.
"It is the first machine with quantum error correction," study co-author Harry Zhou, a physicist at QuEra and Harvard University, told Live Science in an email.
While this computer doesn't have enough power to be useful on its own, it provides a platform on which software programmers can start testing code for future quantum computers, Zhou said.
Zoom-in view of the glass cell of Harvard experiment, where atoms are trapped and manipulated to perform complex logical algorithms. (Image credit: IQuEra)
Why quantum computing needs error-correction
While conventional computers store information in bits with a value of either 0 or 1, quantum computers use qubits — which are a superposition between 0 and 1, thanks to the laws of quantum mechanics.
Qubits can also be stitched together using quantum entanglement to exist in multiple states simultaneously. This enables them to perform many calculations much faster than classical computers — assuming you can build a quantum computer with enough of them. But qubits can easily be disturbed, making them notoriously error-prone. Roughly 1 in 1,000 fail, versus 1 in 1 billion billion bits in conventional computers.
Quantum computers could outpace the best supercomputers if they incorporate millions of qubits, but the largest quantum computer built so far only has around 1,000 qubits, and qubits' high failure rate limits potential scale-up. Error correction could counteract qubits' tendency to fail, and building logical qubits is one way of doing it.
QuEra wants its quantum computers to overtake supercomputers by 2026
Logical qubits: turning down the quantum noise
The new error-correction system relies on data redundancy, where the same piece of data is stored in multiple places, Zhou said. Logical qubits perform the same calculations across several physical qubits — vastly reducing error rates if one or more physical qubits fail, because the data is available elsewhere so calculations can continue.
To make the logical qubit, researchers applied error-correcting computer code to regular qubits. They then set up logical gates, or circuits, between the qubits to entangle them. The quantum computer then calculates the 'syndrome' — a measure of whether it's likely an error has occurred or not. Using this information, the quantum computer corrects the errors and proceeds to the next step.
The new qubits represent a significant advance over past efforts. In 2023, the Google Quantum AI Lab demonstrated a 2.9% error rate using three logical qubits; Quera's error rate is 0.5% with 48 logical qubits. The world leader is the University of Oxford, which has achieved error rates of less than 0.01% — but only between two-qubit gates.
Last year, IBM also demonstrated error-correction technology in its 127-qubit Heron chip which reduced error rates fivefold compared with its other chips. But its first commercial fault-tolerant machine isn't expected until 2029.
QuEra plans to launch several quantum computers in the coming years, starting with a 30-logical-qubit, 3,000 physical qubit machine coming out in 2025. Its monster, a machine with more than 10,000 physical qubits and 100 logical qubits, is scheduled for 2026. "At 100 logical qubits, the [2026] machine can perform correct calculations that exceed the capability of today’s supercomputers," Zhou said.
Samengevat: Volgens onderzoekers kunnen en mogen we artificiële intelligentie (AI) niet volledig vertrouwen. Als AI steeds meer menselijke eigenschappen krijgt, dan bestaat de kans dat taalmodellen tegen ons gaan liegen. De band tussen mens en machine moet verder onderzocht worden.
De ontwikkeling van artificiële intelligentie gaat zeer snel. Sommige wetenschappers vragen zich dan ook af of we er genoeg bij stilstaan.
Gelezen: In het blad Journal of Social Computing waarschuwen wetenschappers voor de verdere ontwikkeling van AI.
Co-auteur John Levi Martin zegt tegenover de website scitechdaily dat machines een “vorm van zelfvervreemding zouden kunnen krijgen door over te gaan naar een specifiek linguïstische vorm van bewustzijn”.
Deze ontwikkeling zet zich nu al door. Computers wisselen onderling informatie uit, mensen geven steeds meer input aan taalmodellen, en AI krijgt een bepaalde mate van zelfbestuur, zoals bij zelfrijdende auto’s.
Als machines leren denken als mensen, zullen ze minder rationeel zijn. Martin noemt dat een “linguïstisch wezen”: iemand die ook bezig is met hoe iets overkomt op een ander en een bepaalde gevoeligheid ontwikkelt.
Bij linguïstische wezens speelt dan “meer het oriënteren op de strategische controle van informatie”. “Het introduceert een verlies van integriteit… niet iets wat we willen in apparaten die we verantwoordelijk maken voor onze veiligheid”, aldus de onderzoeker.
Met andere woorden: we moeten opletten dat machines ons niet gaan voorliegen.
De oplossing:Een duidelijk beleid.
De wetenschappers roepen dan ook op om nu al protocollen en testmethodes te ontwikkelen die computerwetenschappers in staat stellen om dit linguïstisch denken op te merken
Verder stellen ze dat de maatschappij als geheel na moet denken over omgang met machines die een bepaald zelfbewustzijn ontwikkeld hebben.
0
1
2
3
4
5
- Gemiddelde waardering: 0/5 - (0 Stemmen) Categorie:SF-snufjes }, Robotics and A.I. Artificiel Intelligence ( E, F en NL )
10-02-2024
Guide dogs could soon be replaced by ROBOTS: Four-legged AI bot can lead blind people through museums, shopping centres, and hospitals - and can even talk to you RoboGuide is an AI-powered four-legged robot that could replace guide dogs
RoboGuide is an AI-powered four-legged robot that could replace guide dogs
The robot can understand speech, and can provide verbal responses
The idea of a robot taking your job may sound like the plot from the latest episode of Black Mirror.
But it could soon be a reality - at least for guide dogs.
Experts from the University of Glasgow have developed the RoboGuide, an AI-powered four-legged robot dog that could replace guide dogs.
Its developers say that RoboGuide could help blind and visually impaired people to move more freely around museums, shopping centres, hospitals and other public places.
'Assistive technologies like the RoboGuide have the potential to provide blind and partially sighted people with more independence in their daily lives in the years to come,' said Olaoluwa Popoola, the project's principal investigator.
The idea of a robot taking your job may sound like the plot from the latest episode of Black Mirror. But it could soon be a reality - at least for guide dogs
Experts from the University of Glasgow have developed the RoboGuide, an AI-powered four-legged robot dog that could replace guide dogs
People who lived with a pet-like robot for two months had lower levels of stress, similar to the benefits of having a dog (file photo of robot dog toy)
RoboGuide uses a series of sensors to accurately map and assess its surroundings.
Software developed by the team allows it to learn optimal routes between locations and interpret sensor data in real-time to help it avoid hitting moving obstacles while guiding a human.
The robot can also understand speech, giving it the ability to provide verbal responses in turn.
'One significant drawback of many current four-legged, two-legged and wheeled robots is that the technology which allows them to find their way around can limit their usefulness as assistants for the visually impaired,' said Mr Popoola.
'Robots which use GPS to navigate, for example, can perform well outdoors, but often struggle in indoor settings, where signal coverage can weaken.
'Others, which use cameras to 'see', are limited by line of sight, which makes it harder for them to safely guide people around objects or around bends.'
The ongoing development of the RoboGuide was showcased at the university's Mazumdar-Shaw Advanced Research Centre on Thursday.
Developers say the prototype uses a number of cutting-edge technologies, and they aim to have a complete version available in the coming years
There are an estimated 2.2 billion people in the world living with some form of vision loss, with around two million people in the UK affected.
RoboGuide uses a series of sensors to accurately map and assess its surroundings. Software developed by the team allows it to learn optimal routes between locations and interpret sensor data in real-time to help it avoid hitting moving obstacles while guiding a human
It was trialled and tested for the first time with volunteers from both organisations at the Hunterian Museum in Glasgow in December. The robot helped volunteers find their way around and provided interactive spoken guidance on six different exhibits
Spot the robot dog now has the ability to play tour guide using ChatGPT to answer questions and describe the world around it
Professor Muhammad Imran, dean of graduate studies at the James Watt School of Engineering, is co-investigator on the project.
He said: 'Our assistive technology project for the visually impaired embodies innovation, fostering inclusivity.
'In Glasgow, we're pioneering world-changing technologies that hold the potential to transform lives and reshape societal norms.
'This achievement was made possible through collaboration with industry and charity partners and co-creating the design with the invaluable input of end users.'
The Forth Valley Sensory Centre Trust (FVSC) and the Royal National Institute of Blind People (RNIB) Scotland have lent their support to the development of the RoboGuide.
It was trialled and tested for the first time with volunteers from both organisations at the Hunterian Museum in Glasgow in December.
The robot helped volunteers find their way around and provided interactive spoken guidance on six different exhibits.
Wasim Ahmad, of the James Watt School of Engineering and another co-investigator on the project, said: 'Ultimately, our aim is to develop a complete system which can be adapted for use with robots of all shapes and sizes to help blind and partially sighted people in a wide range of indoor situations.
There are an estimated 2.2 billion people in the world living with some form of vision loss, with around two million people in the UK affected
'We hope that we can create a robust commercial product which can support the visually impaired wherever they might want extra help.'
Jacquie Winning, chief executive of the FVSC, said: 'Mobility is a big issue for the blind and partially sighted community.
'RoboGuide is a wonderful solution to that problem, and we are delighted to help test this innovative and creative robot.'
James Adams, director of RNIB Scotland, added: 'We're delighted to be supporting the research and development of technology that could be part of making the world more accessible and empowering blind and partially sighted people to live their lives confidently.'
Physical jobs in predictable environments, including machine-operators and fast-food workers, are the most likely to be replaced by robots.
Management consultancy firm McKinsey, based in New York, focused on the amount of jobs that would be lost to automation, and what professions were most at risk.
The report said collecting and processing data are two other categories of activities that increasingly can be done better and faster with machines.
This could displace large amounts of labour - for instance, in mortgages, paralegal work, accounting, and back-office transaction processing.
Conversely, jobs in unpredictable environments are least are risk.
The report added: 'Occupations such as gardeners, plumbers, or providers of child- and eldercare - will also generally see less automation by 2030, because they are technically difficult to automate and often command relatively lower wages, which makes automation a less attractive business proposition.'
Het begin van 2024 wordt gekenmerkt door een golf van voorspellingen over het traject van kunstmatige intelligentie, variërend van optimistisch tot voorzichtig. Toch is er een duidelijke consensus ontstaan: AI is de menselijke ervaring al aan het veranderen. Om bij te blijven moet de mensheid evolueren.
Voor iedereen die de opkomst van het internet en de sociale media heeft meegemaakt, kan de AI-revolutie een déjà vu-gevoel oproepen – en twee fundamentele vragen oproepen: Is het mogelijk om het huidige momentum vast te houden zonder de fouten uit het verleden te herhalen? En kunnen we een wereld creëren waarin iedereen, inclusief de 2,6 miljard mensen die offline blijven, zich kan ontplooien?
Om AI in te zetten voor een rechtvaardige en mensgerichte toekomst zijn nieuwe, inclusieve vormen van innovatie nodig. Maar drie veelbelovende trends bieden hoop voor het komende jaar.
Ten eerste blijft AI-regulering wereldwijd een topprioriteit. Van de AI-wet van de Europese Unie tot het uitvoerend bevel van oktober 2023 van president Joe Biden van de VS, hebben voorstanders van verantwoorde AI gereageerd op vrijwillige toezeggingen van Big Tech-bedrijven met beleidsvoorstellen die geworteld zijn in gelijkheid, rechtvaardigheid en democratische principes. De internationale gemeenschap, onder leiding van het onlangs opgerichte adviesorgaan op hoog niveau voor AI van de Verenigde Naties (waarvan een van ons, Dhar, lid is), is klaar om het komende jaar veel van deze initiatieven te bevorderen, te beginnen met het tussentijdse rapport over Governing AI for Humanity.
Proactieve maatregelen
Bovendien zou dit het jaar kunnen zijn waarin we de echokamers van de elite ontmantelen en een wereldwijd kader van ethische AI-professionals creëren. Door het bereik van initiatieven als de National Artificial Intelligence Research Resource Task Force – opgericht door de Amerikaanse 2020 AI Initiative Act – uit te breiden en implementatiestrategieën te lokaliseren met behulp van instrumenten als de UNESCO Readiness Assessment-methodologie, zouden wereldwijd inclusieve bestuurskaders vorm kunnen geven aan AI in 2024.
Op nationaal niveau zal de nadruk naar verwachting liggen op het reguleren van AI-gegenereerde inhoud en het in staat stellen van beleidsmakers en burgers om het hoofd te bieden aan AI-gedreven bedreigingen voor burgerparticipatie. Nu een groot aantal landen, die meer dan 40% van de wereldbevolking vertegenwoordigen, zich opmaken voor cruciale verkiezingen dit jaar, zullen er proactieve maatregelen nodig zijn om de dreigende golf van verkeerde en desinformatie te bestrijden. Dit omvat initiatieven om het publieke bewustzijn te vergroten, brede mediageletterdheid in verschillende leeftijdsgroepen te bevorderen en polarisatie aan te pakken door het belang van empathie en wederzijds leren te benadrukken.
Terwijl overheden debatteren over de rol van AI in de publieke sfeer, zullen verschuivingen in de regelgeving waarschijnlijk leiden tot hernieuwde discussies over het gebruik van opkomende technologieën om belangrijke beleidsdoelen te bereiken. India’s gebruik van AI om de efficiëntie van de spoorwegen te verbeteren en het door AI aangedreven digitale betaalsysteem van Brazilië zijn hier goede voorbeelden van.
Momentum van maatschappelijke organisaties
In 2024 zullen entiteiten zoals het VN-ontwikkelingsprogramma naar verwachting de integratie van AI-technologieën in digitale openbare infrastructuur (DPI) onderzoeken. Initiatieven voor het vaststellen van standaarden, zoals het aankomende Global Digital Compact van de VN, kunnen dienen als kaders voor meerdere belanghebbenden voor het ontwerpen van inclusieve DPI. Deze inspanningen moeten gericht zijn op het opbouwen van vertrouwen, prioriteit geven aan behoeften van de gemeenschap en eigenaarschap boven winst, en vasthouden aan “gedeelde principes voor een open, vrije en veilige digitale toekomst voor iedereen”.
Maatschappelijke groeperingen bouwen al voort op dit momentum en gebruiken de kracht van AI voor goede doeleinden. De non-profit Population Services International en de in Londen gevestigde start-up Babylon Health zijn bijvoorbeeld bezig met de uitrol van een AI-gestuurde symptoomchecker en zoekfunctie voor zorgverleners, waarmee ze laten zien dat AI gebruikers kan helpen bij het beheren van hun gezondheid. Ook organisaties als Polaris en Girl Effect werken aan het overwinnen van de barrières voor digitale transformatie binnen de non-profitsector en pakken problemen aan als dataprivacy en gebruikersveiligheid. Door gecentraliseerde financieringsmechanismen te ontwikkelen, internationale expertnetwerken op te zetten en bondgenootschap te omarmen, zouden filantropische stichtingen en openbare instellingen kunnen helpen dergelijke initiatieven op grotere schaal toe te passen.
Achterhaalde percepties
Nu non-profitorganisaties de overstap maken van het integreren van AI in hun werk naar het bouwen van nieuwe AI-producten, moet ons begrip van leiderschap en vertegenwoordiging in technologie ook veranderen. Door achterhaalde percepties van hoofdrolspelers in het huidige AI-ecosysteem uit te dagen, hebben we de kans om het ware, diverse gezicht van innovatie te vieren en baanbrekers van verschillende geslachten, rassen, culturen en regio’s te benadrukken, terwijl we de opzettelijke marginalisatie van minderheidsstemmen in de AI-sector erkennen.
Organisaties als het Hidden Genius Project, Indigenous in AI en Technovation bouwen al aan de “who’s who” van de toekomst, met speciale aandacht voor vrouwen en mensen van kleur. Door hun werk collectief te steunen, kunnen we ervoor zorgen dat zij een leidende rol spelen bij het vormgeven, inzetten en overzien van AI-technologieën in 2024 en daarna.
Leren van successen en mislukkingen
Debatten over wat het betekent om “mensgericht” te zijn en welke waarden onze samenlevingen moeten leiden, zullen onze betrokkenheid bij AI bepalen. Kaders met meerdere belanghebbenden, zoals de UNESCO-aanbeveling over de ethiek van kunstmatige intelligentie, kunnen een broodnodige leidraad vormen. Door zich te richten op gedeelde waarden zoals diversiteit, inclusiviteit en vrede, kunnen beleidsmakers en technologen principes schetsen voor het ontwerpen, ontwikkelen en inzetten van inclusieve AI-tools. Het integreren van deze waarden in onze strategieën vereist ook betrokkenheid bij gemeenschappen en een standvastige toewijding aan rechtvaardigheid en mensenrechten.
Aangezien AI hard op weg is om net zo alomtegenwoordig te worden als het internet, moeten we leren van de successen en mislukkingen van de digitale revolutie. Als we op de ingeslagen weg voortgaan, lopen we het risico dat we de wereldwijde welvaartskloof bestendigen of zelfs vergroten en kwetsbare gemeenschappen wereldwijd verder van ons vervreemden.
Maar door onze toewijding aan eerlijkheid, rechtvaardigheid en waardigheid te herbevestigen, kunnen we een nieuw mondiaal kader creëren dat elk individu in staat stelt de vruchten te plukken van technologische innovatie. We moeten het komende jaar gebruiken om partnerschappen met meerdere belanghebbenden te cultiveren en een toekomst te bevorderen waarin AI welvaart voor iedereen genereert.
De auteur Yolanda Botti-Lodovico is Policy and Advocacy Lead voor de Patrick J. McGovern Foundation. Vilas Dhar is voorzitter van de Patrick J. McGovern Foundation.
0
1
2
3
4
5
- Gemiddelde waardering: 0/5 - (0 Stemmen) Categorie:SF-snufjes }, Robotics and A.I. Artificiel Intelligence ( E, F en NL )
Atoombatterij zo klein als een muntje gaat 50 jaar mee zonder opladen
Atoombatterij zo klein als een muntje gaat 50 jaar mee zonder opladen
Dankzij atoombatterijen hoeven smartphones nooit meer opgeladen te worden en kunnen drones eeuwig in de lucht blijven, zo stelt de maker. Het kan echter nog wel even duren voordat we de batterij op de markt zien.
Het batterijtje bevat 63 nucleaire isotopen, die niet schadelijk zouden zijn voor het milieu en de mens. Hij kan 100 microwatt leveren bij 3 volt.
Een batterij op kernenergie klinkt op het eerste gezicht misschien niet heel veilig.
Maar de technologie wordt al jaren gebruikt voor bijvoorbeeld ruimtemissies en onderzeeërs.
En onlangs heeft een grote batterijfabrikant een prototype uitgebracht van een atoombatterij, die een groot aantal kleine apparaten maar liefst 50 jaar van energie zou kunnen voorzien zonder te hoeven worden opgeladen.
Als het principe opgeschaald kan worden, kunnen we wellicht al onze laptop- en telefoonopladers weggooien.
Veel krachtiger dan traditionele batterijen
Het Chinese Betabolt heeft 63 atomaire isotopen in zijn nieuwe atoombatterij BV100 gepropt, en hij is kleiner dan een muntje.
Het batterijtje meet slechts 15 bij 15 bij 5 millimeter en kan tot 100 microwatt opwekken bij 3 volt.
Dankzij het kleine formaat kunnen meerdere eenheden in bijvoorbeeld een smartphone erop worden aangesloten, waardoor de efficiëntie toeneemt.
Deze batterij benut de energie die vrijkomt als radioactieve isotopen vervallen om elektriciteit op te wekken.
Dit doet denken aan de technologie in oudere pacemakers en ruimtevaartuigen.
De energiedichtheid van de batterij zou ruim 10 keer zo groot zijn als die van een conventionele lithiumionbatterij – een eigenschap die drones in staat zou kunnen stellen om eeuwig te vliegen zonder op te hoeven laden.
Fabrikant: Veilig en milieuvriendelijk
Bij kernenergie zijn straling en afval over het algemeen een probleem.
Een atoombatterij haalt energie uit een radioactieve bron en verschilt van traditionele batterijen qua prijs, levensduur, toepassingen en functie.
Traditionele batterijen gebruiken elektrochemische reacties als energiebron.
Atoombatterijen gebruiken energie uit het verval van radioactieve isotopen om elektriciteit op te wekken.
Uraniumisotopen worden veel gebruikt om elektriciteit op te wekken omdat ze al 60 jaar de primaire energiebron van kerncentrales zijn.
Omdat de elektriciteit afkomstig is van een constant verval van deeltjes, ontlaadt de batterij niet sneller bij toenemend gebruik.
Atoombatterijen worden al gebruikt in onder meer ruimtevaartuigen en satellieten – ze helpen zelfs de Marsrover Perseverance van energie te voorzien.
Atoombatterijen zijn nooit algemeen verkrijgbaar geweest, omdat radioactieve elementen als plutonium gevaarlijk waren.
Maar volgens Betavolt vormt de straling van de atoombatterij geen gevaar omdat de radioactiviteit zo miniem is.
De BV100 is zelfs milieuvriendelijk, volgens een persbericht van Betavolt.
Als de batterij bijna aan het eind van zijn levensduur is, worden de radioactieve stoffen omgezet in koper, dat niet radioactief is en geen bedreiging vormt voor het milieu.
Betavolt test de batterij op dit moment, en het bedrijf is van plan om het batterijtype in massaproductie te nemen voor telefoons, drones en andere kleinere apparaten.
Het is echter nog onduidelijk wanneer het zo ver kan zijn.
John Cena wordt binnenkort, dus niet de enige die onzichtbaarheid is (haha). Heb je ooit van Chimera gehoord? Nee, niet het mythische wezen, maar de nieuwste doorbraak van Chinesewetenschappers! Materiaal dat onzichtbaarheid mogelijk maakt! Geïnspireerd door de natuurlijke eigenschappen van camouflagemeesters. Deze baanbrekende uitvinding, genaamd Chimera, zou wel eens een spelveranderaar kunnen zijn in zowel militaire als natuurbehoudtoepassingen. Laten we eens dieper duiken in deze fascinerende ontwikkeling die ons vermogen om te verbergen opnieuw definieert.
Chimera
Het concept van materiaal dat onzichtbaarheid mogelijk maakt, is even intrigerend als het klinkt. Deze vinding gebruikt verschillende soorten geavanceerde voorwerpen die licht– en warmtegolven op slimme wijze manipuleren, waardoor het objecten bijna volledig uit het zicht kan onttrekken. Het is alsof je een kameleon, glaskikker, en baardagaam samenbrengt in één supermateriaal, waarbij elk dier zijn unieke camouflagevermogen bijdraagt aan deze baanbrekende uitvinding.
Beeld: Pexels ego
Materiaal dat Onzichtbaarheid Mogelijk Maakt
Deze technologie, die bijna onzichtbaar is voor warmtecamera’s, zou een grote impact kunnen hebben op hoe we ons verbergen voor radar en camera’s. Het is alsof je je eigen onzichtbaarheidsmantel hebt, rechtstreeks uit de sciencefictionfilms! De mogelijkheden van Chimera zijn enorm. In een militaire context kan het worden gebruikt om uitrusting of zelfs personen aan het zicht te onttrekken. Maar het kan ook worden ingezet voor natuurbehoud, waardoor wetenschappers dieren kunnen observeren zonder hun natuurlijke gedrag te verstoren.
Uitvinding van Chinese wetenschappers
Chimera, de recente uitvinding van Chinese wetenschappers, opent een wereld van mogelijkheden in onzichtbaarheidstechnologie. Van het verbergen van militair materieel tot het onopvallend bestuderen van dieren in het wild, de toepassingen zijn net zo gevarieerd als ze indrukwekkend zijn. Deze ontwikkeling laat zien hoe ver we zijn gekomen in het nabootsen van de wonderen van de natuur en hoe we deze kunnen gebruiken voor onze technologische vooruitgang. Het materiaal dat onzichtbaarheid mogelijk maakt, is niet alleen een stap vooruit in de wetenschap, maar ook een fascinerend voorbeeld van hoe de natuur onze grootste inspiratiebron blijft.
Beste bezoeker, Heb je zelf al ooit een vreemde waarneming gedaan, laat dit dan even weten via email aan Frederick Delaere opwww.ufomeldpunt.be. Deze onderzoekers behandelen jouw melding in volledige anonimiteit en met alle respect voor jouw privacy. Ze zijn kritisch, objectief maar open minded aangelegd en zullen jou steeds een verklaring geven voor jouw waarneming! DUS AARZEL NIET, ALS JE EEN ANTWOORD OP JOUW VRAGEN WENST, CONTACTEER FREDERICK. BIJ VOORBAAT DANK...
Druk op onderstaande knop om je bestand , jouw artikel naar mij te verzenden. INDIEN HET DE MOEITE WAARD IS, PLAATS IK HET OP DE BLOG ONDER DIVERSEN MET JOUW NAAM...
Druk op onderstaande knop om een berichtje achter te laten in mijn gastenboek
Alvast bedankt voor al jouw bezoekjes en jouw reacties. Nog een prettige dag verder!!!
Over mijzelf
Ik ben Pieter, en gebruik soms ook wel de schuilnaam Peter2011.
Ik ben een man en woon in Linter (België) en mijn beroep is Ik ben op rust..
Ik ben geboren op 18/10/1950 en ben nu dus 74 jaar jong.
Mijn hobby's zijn: Ufologie en andere esoterische onderwerpen.
Op deze blog vind je onder artikels, werk van mezelf. Mijn dank gaat ook naar André, Ingrid, Oliver, Paul, Vincent, Georges Filer en MUFON voor de bijdragen voor de verschillende categorieën...
Veel leesplezier en geef je mening over deze blog.