Dit is ons nieuw hondje Kira, een kruising van een waterhond en een Podenko. Ze is sinds 7 februari 2024 bij ons en druk bezig ons hart te veroveren. Het is een lief, aanhankelijk hondje, dat zich op een week snel aan ons heeft aangepast. Ze is heel vinnig en nieuwsgierig, een heel ander hondje dan Noleke.
This is our new dog Kira, a cross between a water dog and a Podenko. She has been with us since February 7, 2024 and is busy winning our hearts. She is a sweet, affectionate dog who quickly adapted to us within a week. She is very quick and curious, a very different dog than Noleke.
DEAR VISITOR,
MY BLOG EXISTS ALREADY 13 YEARS AND 1 MONTH.
ON 06/07/2024 MORE THAN 2.101.500
VISITORS FROM 135 DIFFERENT NATIONS ALREADY FOUND THEIR WAY TO MY BLOG.
THAT IS AN AVERAGE OF 400GUESTS PER DAY.
THANK YOU FOR VISITING MY BLOG AND HOPE YOU ENJOY EACH TIME.
The purpose of this blog is the creation of an open, international, independent and free forum, where every UFO-researcher can publish the results of his/her research. The languagues, used for this blog, are Dutch, English and French.You can find the articles of a collegue by selecting his category. Each author stays resposable for the continue of his articles. As blogmaster I have the right to refuse an addition or an article, when it attacks other collegues or UFO-groupes.
Druk op onderstaande knop om te reageren in mijn forum
Zoeken in blog
Deze blog is opgedragen aan mijn overleden echtgenote Lucienne.
In 2012 verloor ze haar moedige strijd tegen kanker!
In 2011 startte ik deze blog, omdat ik niet mocht stoppen met mijn UFO-onderzoek.
BEDANKT!!!
Een interessant adres?
UFO'S of UAP'S, ASTRONOMIE, RUIMTEVAART, ARCHEOLOGIE, OUDHEIDKUNDE, SF-SNUFJES EN ANDERE ESOTERISCHE WETENSCHAPPEN - DE ALLERLAATSTE NIEUWTJES
UFO's of UAP'S in België en de rest van de wereld In België had je vooral BUFON of het Belgisch UFO-Netwerk, dat zich met UFO's bezighoudt. BEZOEK DUS ZEKER VOOR ALLE OBJECTIEVE INFORMATIE , enkel nog beschikbaar via Facebook en deze blog.
Verder heb je ook het Belgisch-Ufo-meldpunt en Caelestia, die prachtig, doch ZEER kritisch werk leveren, ja soms zelfs héél sceptisch...
Voor Nederland kan je de mooie site www.ufowijzer.nl bezoeken van Paul Harmans. Een mooie site met veel informatie en artikels.
MUFON of het Mutual UFO Network Inc is een Amerikaanse UFO-vereniging met afdelingen in alle USA-staten en diverse landen.
MUFON's mission is the analytical and scientific investigation of the UFO- Phenomenon for the benefit of humanity...
Je kan ook hun site bekijken onder www.mufon.com.
Ze geven een maandelijks tijdschrift uit, namelijk The MUFON UFO-Journal.
Since 02/01/2020 is Pieter ex-president (=voorzitter) of BUFON, but also ex-National Director MUFON / Flanders and the Netherlands. We work together with the French MUFON Reseau MUFON/EUROP.
ER IS EEN NIEUWE GROEPERING DIE ZICH BUFON NOEMT, MAAR DIE HEBBEN NIETS MET ONZE GROEP TE MAKEN. DEZE COLLEGA'S GEBRUIKEN DE NAAM BUFON VOOR HUN SITE... Ik wens hen veel succes met de verdere uitbouw van hun groep. Zij kunnen de naam BUFON wel geregistreerd hebben, maar het rijke verleden van BUFON kunnen ze niet wegnemen...
27-06-2024
Why the World of Humanoid Robots Is on Fire Right Now
Why the World of Humanoid Robots Is on Fire Right Now
It’s not just you — there’s a robot renaissance upon us.
AI is fueling a lot of wild ideas for our tech-driven future. If everything pans out, we won’t have to write our own essays, take our own notes, drive our own cars — hell, we might not even have to make our own art.
That’s a tall order, obviously, but with AI’s rapid growth it’s hard not to give at least some of those lofty visions credence; even the most sci-fi ones; even — hear me out — freakin’ Star Wars-level humanoid robots.
There are a lot of humanoid bots now and a lot more seemingly on the way — Figure’s AI robot, Unitree’s speed demon, Agility’s workhorse — but arguably most important of all is Tesla’s Optimus.
I don’t mean that Optimus is necessarily more advanced than the rest of the aforementioned — in fact, Tesla’s competition is pretty fierce right now — but Optimus has something that the other robots don’t: clout.
As some of you may already know, Elon Musk, despite Optimus’ nascency, has been bullish on the robot’s future. In fact, this year, Musk went as far as to suggest that Optimus could make Tesla a $25 trillion company. I know, I know...
If you’re rolling your eyes, you’re justified. Musk is often (and not infrequently wrongly) optimistic about future technologies. But his carnival barking is a huge asset, not just for Tesla, but for the prospects of functional, real-world humanoid robots writ large.
What I mean is that, for better or worse, since Tesla awkwardly introduced Optimus on stage last year with a weird interpretive dance, a lot has happened. When Tesla and Musk talk, people, regardless of their opinion of the pair, listen. If Musk says robots are on the way, maybe they actually are, and that added confidence gives other non-Tesla upstarts more opportunities as well.
While Musk and Tesla have paved the way with their own fuel to the humanoid robot fire, AI is an equally powerful hype train that is doing the same thing concurrently.
AI, specifically large language models (LLMs) like the ones that power ChatGPT, is opening up a world of possibilities for what people think humanoid robots are capable of. That means making them more collaborative, helping them understand commands more easily, and maybe more importantly, making them feel more human.
Take Figure’s robot, for example — in lots of ways, it functions like every other humanoid robot of its ilk. But when paired with ChatGPT, things start to look truly futuristic.
It’s crucial to take Figure’s demo with a grain of salt. Right now, chatbots have a way of making things look functional on the surface, but in practice, the results are rocky. But even as a proof of concept, it’s clear AI has a place in the humanoid robot future and there’s interest in figuring out what that place is.
And sure, being conversational isn’t as important as say, making a robot with the fine motor skills to fold a shirt properly, but if these things are going to be in your home, they better have some manners, right?
READY FOR THE SBOTLIGHT
There are obviously a lot more factors than just Tesla and AI at play when it comes to the popularity of humanoid robots. Research paved years ago by companies like Boston Dynamics and the prospect of bots’ applications in factories have been equally pivotal.
But this time around, humanoid robots feel as though they’ve found themselves in front of an even bigger and brighter spotlight; it’s not just Tesla that’s putting them there. Nvidia is getting in on the game, providing its own expertise with systems like GR00T which is meant to help robots train themselves. Similarly, OpenAI seems to be interested in the robotics game and there’s a job opening as proof.
It’s hard to say what will come of all the attention, but if history is an example, money and hype usually mean progress. And if that means I don’t have to haul my own dirty clothes to the laundromat, then consider me a humanoid robot truther.
Futuristische vliegtuigen die onze manier van reizen kunnen veranderen Stel je voor dat je in slechts vier uur van Europa naar Australië kunt reizen of in slechts 90 minuten van Frankfurt naar Dubai. Het klinkt misschien als sciencefiction, maar het bedrijf Destinus is in Europa bezig met de ontwikkeling van een hypersonisch vliegtuig dat dit binnenkort werkelijkheid zou kunnen maken.
Een Zwitserse start-up Het Zwitserse Destinus is een start-up die pas twee jaar geleden, in 2021, is opgericht, meldt EuroNews. In die korte tijd heeft het bedrijf echter al veel vooruitgang geboekt.
Een samenwerking tussen verschillende Europese landen Het bedrijf werkt samen met een programma van de Spaanse overheid en een team van 120 mensen verspreid over Spanje, Frankrijk en Duitsland.
Er is flink geïnvesteerd Destinus heeft € 12 miljoen aan investeringen binnengehaald door partnerschappen met technologiecentra, bedrijven en enkele Spaanse universiteiten.
Succesvolle vluchten met prototypes De eerste twee prototypes van het hypersonische vliegtuig hebben succesvolle testvluchten gemaakt en bereiden zich nu voor op proeven met waterstofmotoren.
De eerste vlucht van Destinus 3 in het najaar van 2023 Het derde prototype, bekend als Destinus 3, zal naar verwachting tegen het einde van het jaar klaar zijn voor zijn eerste vlucht.
Mach 5 Volgens een reportage van CNN zal het hypersonische vliegtuig van Destinus naar verwachting met een snelheid van Mach 5 vliegen, oftewel: vijf keer de snelheid van het geluid.
Londen-Sydney in 4 uur in plaats van 22 uur Door deze adembenemende snelheid zou het vliegtuig in slechts vier uur van Londen naar Sydney kunnen vliegen. Dit is een aanzienlijke tijdsbesparing als je het vergelijkt met de huidige reistijd van ongeveer 22 uur.
Hoe werkt een hypersonisch vliegtuig? Maar wat is het mechanisme achter de werking van een hypersonisch vliegtuig? Design Boom meldt in een rapport dat het vliegtuig, genaamd Destinus, zal functioneren op waterstof, een brandstof die zowel schoon als efficiënt is.
Opstijgen vanaf een 'Hyperport' De Zwitserse start-up vertelt dat het de bedoeling is dat het vliegtuig opstijgt vanaf wat ze een 'Hyperport' noemen, een luchthaven met infrastructuur voor de verwerking van waterstof. Eenmaal in de lucht zal het vliegtuig raketmotoren gebruiken om hypersonische snelheden te bereiken.
Een schone brandstof Waterstof is niet alleen een schone brandstof, maar het is ook overvloedig aanwezig en kan worden geproduceerd uit hernieuwbare bronnen. Hierdoor zou het vliegtuig Destinus een zeer lage impact op het milieu hebben.
Uitdagingen Maar de ontwikkeling van een hypersonisch vliegtuig verloopt niet zonder slag of stoot. Volgens Destinus is een van de grootste uitdagingen het vinden van materialen die bestand zijn tegen de extreme temperaturen die bij een dergelijke hypersonische vlucht optreden.
Geen gemakkelijke opgave De website van het bedrijf zegt hierover: "Het is geen gemakkelijke opgave om de constructie koud te houden bij zulke hoge snelheden".
Een uniek koelsysteem "Daarom zijn we bezig met de ontwikkeling van een uniek actief koelsysteem dat de thermische energie, gegenereerd door luchtwrijving, transformeert in voortstuwing. Dit zorgt ervoor dat de structuur voldoende gekoeld blijft om de externe warmtestroom te weerstaan tijdens het aandrijven van de raketmotoren."
Over een paar jaar kan reizen er heel anders uitzien Als de ontwikkeling van Destinus succesvol is, kunnen we over een paar jaar grote veranderingen in het luchtverkeer verwachten.
Al in 2030 zouden deze vliegtuigen passagiers kunnen vervoeren Martina Löfqvist, de manager bedrijfsontwikkeling van het bedrijf, deelde aan CNN mee dat het bedrijf streeft naar de lancering van een kleiner waterstofvliegtuig in 2030, dat plaats biedt aan ongeveer 25 businessclasspassagiers.
Ambitie om alle passagiers te kunnen vervoeren in enkele uren Destinus heeft de ambitie om tegen 2040 ook grotere vliegtuigen te produceren die in staat zijn om passagiers van alle klassen in slechts enkele uren de wereld rond te vliegen.
0
1
2
3
4
5
- Gemiddelde waardering: 0/5 - (0 Stemmen) Categorie:SF-snufjes }, Robotics and A.I. Artificiel Intelligence ( E, F en NL )
11-06-2024
RESEARCHERS SAY THERE’S A VULGAR BUT MORE ACCURATE TERM FOR AI HALLUCINATIONS
RESEARCHERS SAY THERE’S A VULGAR BUT MORE ACCURATE TERM FOR AI HALLUCINATIONS
THIS IS A COMPELLING PHILOSOPHICAL ARGUMENT.
GETTY / FUTURISM
Not Just Nomenclature
It's not just your imagination — ChatGPT really is spitting out "bullshit," according to a group of researchers.
In a new paper published in the journal Ethics and Information Technology, a trio of philosophy researchers from the University of Glasgow in Scotland argue that referring to chatbot's propensity to make crap up shouldn't be referred to as "hallucinations," because it's actually something much less flattering.
Hallucination, as anyone who's studied psychology or taken psychedelics knows well, is generally defined as seeing or perceiving something that isn't there. Its use in the context of artificial intelligence is clearly metaphorical, because large language models (LLMs) don't see or perceive anything at all — and as the Glasgow researchers maintain, that metaphor misses the mark when the concept of "bullshitting" is right there.
"The machines are not trying to communicate something they believe or perceive," the paper reads. "Their inaccuracy is not due to misperception or hallucination. As we have pointed out, they are not trying to convey information at all. They are bullshitting."
Calling Bull
At the crux of the assertion from researchers Michael Townsen Hicks, James Humphries, and Joe Slater is philosopher Harry Frankfurt's hilarious and cutting 2005 epistemology opus "On Bullshit." As the Glaswegians summarize it, Frankfurt's general definition of bullshit is "any utterance produced where a speaker has indifference towards the truth of the utterance." That explanation, in turn, is divided into two "species": hard bullshit, which occurs when there is an agenda to mislead, or soft bullshit, which is uttered without agenda.
"ChatGPT is at minimum a soft bullshitter or a bullshit machine, because if it is not an agent then it can neither hold any attitudes towards truth nor towards deceiving hearers about its (or, perhaps more properly, its users') agenda," the trio writes.
Rather than having any intention or agenda, chatbots have one singular objective: to output human-like text. Citing the lawyer who used ChatGPT to write a legal brief and ended up presenting a bunch of "bogus" legal precedents before the judge, the UG team asserts that LLMs have proven themselves adept bullshitters — and that sort of thing could become more and more dangerous as people keep relying on chatbots to work for them.
"Investors, policymakers, and members of the general public make decisions on how to treat these machines and how to react to them based not on a deep technical understanding of how they work, but on the often metaphorical way in which their abilities and function are communicated," the researchers proclaim. "Calling their mistakes 'hallucinations' isn’t harmless: it lends itself to the confusion that the machines are in some way misperceiving but are nonetheless trying to convey something that they believe or have perceived."
Een nieuw onderzoek heeft schimmels ontdekt in het noordelijke deel van de Stille Oceaan die een belangrijke rol spelen: het afbreken van plastic in het water. Laten we eens kijken hoe.
Schimmels zetten plastic in het noordelijke deel van de Stille Oceaan om in koolstofdioxide
Freepik
Plastic is helaas aanwezig in de zeeën en oceanen van onze planeet, dat weten we. Onderzoekers van het NIOZ, het Koninklijk Nederlands Instituut voor Onderzoek der Zee, hebben echter een aangename ontdekking gedaan: een schimmel genaamd Parengyodontium album, die in de Stille Oceaan is gevonden, is in staat om dit soort afval af te breken, en ook nog eens heel snel.
Dit organisme is in het bijzonder in staat om polyethyleen af te breken tot kooldioxide met een snelheid van 0,5 procent in één dag gedurende negen dagen, na voorbehandeling met UV-licht. Daarna geeft het de CO₂ af in milieuveilige hoeveelheden. Voor hun studie, die is gepubliceerd in Science of The Total Environment, isoleerden de wetenschappers de schimmel uit gebieden in het noordelijke deel van de Stille Oceaan waar de hoeveelheid plastic het grootst is. Vervolgens gebruikten ze gelabelde koolstofisotopen om het afbraakproces zo nauwkeurig mogelijk vast te leggen.
Het is niets nieuws dat bacteriën plastic afval kunnen afbreken: volgens onderzoekers zijn enkele nog onbekende soorten mariene en oceanische schimmels verantwoordelijk voor het afbreken van plastic in de diepere zeebodem.
Schimmels die plastic afbreken en de impact op het mariene ecosysteem
De Parengyodontium album is in feite slechts één van de vier bekende schimmels die dit vermogen hebben en er zijn er zeker nog meer die hetzelfde werk kunnen doen in afgelegen gebieden van de oceaan. In ieder geval is de ontdekking van dit nieuwe plastic-etende organisme een baken van hoop voor het welzijn van de zee, omdat het een belangrijke bondgenoot is in de strijd tegen de hoge aanwezigheid van plastic en microplastics in deze kwetsbare ecosystemen.
Het kan echter nauwelijks worden beschouwd als een oplossing voor de situatie van de Great Pacific Garbage Patch, of Pacific Trash Vortex, de draaikolk van afval bestaande uit deeltjes zeeafval in de centrale Noordelijke Stille Oceaan. De hoeveelheid afval in dit gebied is zodanig dat het zeer lang zou duren voordat deze schimmels dit significant zouden kunnen verminderen.
Jaarlijkse plasticproductie en voorspellingen
Freepik
Jaarlijks wordt er meer dan 400 miljard kg plastic geproduceerd en de verwachting is dat dit aantal in 2060 verdrievoudigd zal zijn. Een groot percentage van dit afval is bestemd om in zee terecht te komen en op de oppervlakte te drijven, om uiteindelijk naar de zeebodem te zinken. Zoals Annika Vaksmaa van het NIOZ, hoofdauteur van het onderzoek, uitlegt, raken ze vaak verstrikt in subtropische draaikolken, concentrische oceaanstromingen waarbij het water bijna stilstaat. In de noordelijke Stille Oceaan is de hoeveelheid drijvend plastic ongeveer 80 miljoen kg.
Uiteindelijk kan deze schimmel met succes koolstofhoudend polyethyleen afbreken dat eerder is blootgesteld aan UV-licht. In de praktijk is dit een veelvoorkomend soort plastic waaruit waterflessen en plastic tassen bestaan, voorwerpen die vaak in onze wateren terechtkomen. Vaksmaa gelooft dat UV-licht de mechanische afbraak van plastic bevordert, evenals de biologische afbraak door Parengyodontium album. Natuurlijk impliceert of stimuleert het effectieve werk van deze schimmels niet een onbewust en schadelijk gebruik van plastic: om het welzijn van het mariene ecosysteem te bevorderen, is het essentieel dat iedereen met gezond verstand handelt en dat het gebruik van plastic drastisch wordt verminderd.
Wat zouden we kunnen doen als we een extra duim hadden? Robotica laat het ons zien door een apparaat te maken dat blijkbaar heel gemakkelijk te gebruiken is.
Zijn twee duimen niet genoeg? Daar zorgt robotica voor
Dani Clode Design / The Plasticity Lab
Tien vingers in totaal, waarvan slechts twee duimen, is misschien niet genoeg, zelfs als we ons daar niet van bewust zijn. Gedreven door de overtuiging dat “meer beter is” wilden wetenschappers van de Universiteit van Cambridge de menselijke hand een extra verlengstuk geven. Robotisch natuurlijk. Deze sector wordt steeds populairder en ontwikkelt een reeks gemotoriseerde draagbare apparaten. Het doel? Door de grenzen van de menselijke anatomie te overwinnen en de motorische vaardigheden te implementeren die we nodig hebben om de prestaties te verbeteren, en om ondersteuning te bieden aan mensen met bewegingsproblemen.
Tamara Makin van de Cognition and Brain Sciences Unit van de Medical Research Council aan de Universiteit van Cambridge legt uit: “De technologie verandert onze definitie van wat het betekent om mens te zijn, waarbij machines steeds meer een onderdeel van ons dagelijks leven worden. Deze technologieën bieden opwindende nieuwe mogelijkheden waar de samenleving profijt van kan hebben, maar het is van cruciaal belang om te overwegen hoe ze alle mensen in gelijke mate kunnen helpen."
De robotiche derde duim: hoe werkt het
University of Cambridge/Youtube screenshot
De Derde Duim, de specifieke naam van het apparaat, is ontwikkeld door Dani Clode, die meewerkt in het laboratorium van Makin. Het gaat om een extra robotische duim die de bewegingsmogelijkheden vergroot, waardoor zowel het grijpvermogen van de hand als de last die deze kan tillen en dragen toeneemt. Met andere woorden: het maakt het mogelijk om handelingen uit te voeren die met één hand moeilijk of onmogelijk zijn.
Het apparaat wordt aan de andere kant van de hand gedragen dan de natuurlijke duim en wordt bestuurd door een druksensor die onder de grote tenen wordt aangebracht. Druk van de rechterteen verlengt de robotische duim, terwijl druk van de punt van de linker grote teen deze dichter bij de vingers brengt. De kracht van de druk bepaalt de bewegingssnelheid, evenals de terugkeer van het apparaat naar zijn oorspronkelijke positie. Wetenschappers testten de Derde Duim in 2022 tijdens de Royal Society Summer Science Exhibition, waarbij enkele leden van het publiek betrokken waren die de kans hadden om het uit te proberen.
Inclusieve robotische duim: geschikt voor iedereen en eenvoudig in gebruik
University of Cambridge
592 deelnemers in de leeftijd van 3 tot 96 jaar waren in staat om de sensor gedurende vijf dagen te bewegen. Slechts vier deelnemers hadden hier echter moeite mee, omdat het prototype dat op de tentoonstelling werd gepresenteerd niet geschikt was voor de handgrootte van kleine kinderen, noch voor de sensor. In de overgrote meerderheid van de gevallen lukte het de proefpersonen om de duim te bewegen tijdens de minuut die beschikbaar was om hem te testen, geleid door de instructies van het team. De test bestond uit het oppakken van voorwerpen met alleen de Derde Duim, inclusief het oppakken van pinnen van een geperforeerd paneel en deze één voor één in de mand te verplaatsen, om er zoveel mogelijk te verzamelen binnen 60 seconden. Meer dan de helft van de deelnemers slaagde daarin.
Uiteindelijk was 98% van de deelnemers in staat om de objecten naar tevredenheid te verplaatsen, ongeacht verschillen in achtergrond en geslacht. Kinderen en ouderen toonden een vergelijkbaar vaardigheidsniveau, waarbij oudere volwassen deelnemers minder vaardigheid vertoonden vanwege hun leeftijd. Zoals Dani Clode uitlegde: "Gezien de diversiteit van lichamen is het cruciaal dat de ontwerpfase van draagbare technologie zo inclusief mogelijk is, zodat deze apparaten toegankelijk en functioneel zijn voor een breed scala aan gebruikers."
Het Guinness Book of World Records is altijd een soort boek geweest van menselijke en dierlijke prestaties. Van het meest ongelofelijke tot het meest bijzondere, een vermelding in het Guinness World Records betekent dat je ergens de beste in bent. Het is echter niet altijd een levend wezen dat een record vestigt. Onlangs verdiende een robot een ereplaats onder de wereldrecords door een Rubiks kubus op te lossen in minder dan een seconde. Laten we eens kijken hoe hij dat deed.
Mensen, machines en Rubiks kubus: een genadeloze vergelijking
Unsplash
Dat Guinness World Records ruimte maakt voor prestaties betreft Rubiks Kubus is niets nieuws. In 2023 en daarvoor, in 2018, wisten twee mannen in iets meer dan drie seconden een Rubiks kubus op te lossen, waarmee ze in beide gevallen een wereldrecord vestigden. De laatste is van Max Park, een 21-jarige man die de 3x3x3-kubus in slechts 3,13 seconden in zijn oorspronkelijke staat terugbracht.
Dit is een buitengewone en ongekende prestatie, maar wel een die Park heeft bevestigd als een van de specialisten van Rubuks kubus. In 2020 had Netflix zelfs al de documentaire “The Speed Cubers” aan hem gewijd, oftewel de mensen die gespecialiseerd zijn in het razendsnel oplossen van Rubiks kubussen. Dit zijn verhalen over een toewijding en vaardigheid die geen grenzen kent. Zo niet die van het menselijk lichaam.
Robot lost de Rubiks kubus in minder dan een seconde op
guinnessworldrecords/Instagram
Max Park vertegenwoordigt daarom het toppunt van menselijk vermogen bij het oplossen van een Rubiks kubus, een niveau dat echter niet door machines kan worden bereikt. Een team van ingenieurs van Mitsubishi Electric Corporation, een Japans bedrijf, heeft namelijk een robot ontwikkeld die de Rubiks kubus kan oplossen. Dit is niet de eerste poging, maar op dit moment is het wel de poging die een nooit eerder vertoond record heeft gevestigd.
De robot ontwikkeld door het Component Production Engineering Center van MEC slaagde erin de 3x3x3 Rubiks kubus in minder dan een seconde op te lossen, om precies te zijn in 0,305 seconden. Dit is zo'n snelle tijd dat het menselijk oog deze niet eens kan volgen, tenzij gebruik wordt gemaakt van slow motion. Deze prestatie wordt bevestigd door het profiel van Guinness World Records zelf, dat de video in slow motion publiceerde.
Het geheim achter het Guinness van de robot
Het recordbrekende robotproject werd geleid door ingenieur Tokui, geïnspireerd door de vele online video's van robots die een Rubiks kubus probeerden. Tokui was ervan overtuigd dat zijn team een beter resultaat kon bereiken en ging meteen aan de slag, maar hij realiseerde zich al snel voor welke uitdagingen hij stond. Niet alleen het ontwerp van de robot om de Rubiks kubus op te lossen zorgde voor problemen, maar ook de Rubiks kubus zelf. Het mechanisme in de puzzel kan namelijk gemakkelijk vastlopen of zelfs leiden tot het breken ervan. Het oplossen van een Rubiks kubus in minder dan een seconde vereist snelheid, maar ook een grote vloeiendheid in de bewegingen van de machine en de puzzel.
Na een mislukte eerste poging slaagde het ingenieursteam erin om de robot te perfectioneren voor een tweede poging, die de klok stopte op 0,305 seconden. Een wereldrecord dat het vorige record dat was gevestigd als onderdeel van The Rubik's Contraption overtrof. Misschien is de tijd wel rijp voor een Guinness Book of Robots, en niet alleen een Guinness World Record.
De robotica-sector groeit snel en er komen steeds meer mensachtige machines met ongelooflijke capaciteiten. Een Chinees bedrijf heeft een van zijn verbazingwekkende robots onthuld. Laten we er samen kennis mee maken.
Unitree G1, de "kind"-robot, gepresenteerd
Unitree Robotics/Youtube screenshot
Mensachtige robots strijden om te zien wie van hen de meest indrukwekkende prestaties kan leveren. De grens van deze machines breidt zich steeds verder uit: robots kunnen rennen, werken, koken, dansen en nog veel meer. De simulatie van menselijke activiteiten wordt steeds nauwkeuriger en verrassender, hoewel de uitdagingen in deze innovatieve sector nog steeds talrijk zijn.
Nadat we de "arbeidersrobot" tijdens de live demonstratie na twintig opeenvolgende uren werk op de grond hebben zien instorten, hebben het nu over het nieuwe "wezen" van het Chinese bedrijf Unitree Robotics, dat de Unitree G1-robot presenteerde via een indrukwekkende video. De wetenschappelijke gemeenschap was verbaasd over deze robot en zijn mogelijkheden: G1 is zo groot als een kind en is uitgerust met kunstmatige intelligentie, maar de functies ervan zijn ongelooflijk geavanceerd.
G1 kan in feite geraakt worden zonder op de grond te vallen: hij stapt gewoon een stukje naar achteren en toont uitzonderlijke weerstand en evenwicht. Bovendien kan hij worden opgevouwen om "compact" te worden en gemakkelijk te worden verplaatst. Zijn meest merkwaardige gave is echter dat hij veel handelingen met zijn handen kan uitvoeren, zoals het kraken van noten en het maken van een tosti.
In de video is te zien hoe G1 op de grond ligt en dan met grote behendigheid helemaal zelfstandig overeind komt. Hij lijkt wel een slangenmens, zo flexibel is hij in het aannemen van onnatuurlijke houdingen. Eenmaal rechtop, wordt hij gefilmd terwijl hij zonder aarzelen naar de muur loopt, zich dan omdraait, één arm opheft en naar de camera zwaait. Op dat punt begint hij te rennen - hij kan een snelheid van 7,2 km/u bereiken - om nog een van zijn vaardigheden te tonen, totdat hij laat zien dat hij tegen een stootje kan. Meteen daarna neemt hij een pauze, gaat op de bank liggen en “krult zich op” zodat hij opgepakt kan worden.
Daarna laat G1 zien wat hij in de keuken kan: hij heeft geen gereedschap nodig om de noten te kraken die hij uit een kom haalt, hij gebruikt gewoon één hand, waarmee hij zelfs een frisdrank kan openen. Het filmpje eindigt met de robot die de intentie heeft om met een hamer op zijn vingers te slaan: ze lijken onverwoestbaar en kunnen voorwerpen tot een maximumgewicht van 2 kg hanteren.
De prijs van de G1-robot is $16.000
Unitree Robotics/Youtube screenshot
Het publiek was echter vooral onder de indruk van de prijs: Unitree G1, die werd onthuld in Yokohama, in Japan, tijdens de ICRA, de conferentie over robotica van de IEEE, kost slechts 16.000 dollar. Hij is 127 cm hoog, 45 cm breed en 20 cm dik. Ingeklapt worden de afmetingen 69x45x30 cm en de lithiumbatterij zorgt voor een autonomie van twee uur.
Unitree heeft al mensachtige robots ontwikkeld en debuteerde op dit gebied met de H1-robot op mensenmaat, die 150.000 dollar kost. Dit tweede product is echter veel goedkoper, ondanks zijn ongelooflijke capaciteiten. Dankzij de Intel RealSense D435 dieptecamera en een 3D LiDAR kan hij zijn omgeving herkennen, waarin hij behendig beweegt dankzij gewrichten in de knieën, middel en heupen. Het is uiteindelijk de “eerste mensachtige die je kunt kopen voor de prijs van een goedkope cobot”, zoals professor Bruno Siciliano, een van de toonaangevende onderzoekers op het gebied van robotica, zei. De cobot is een collaboratieve robot, bedoeld voor mens-machine interactie in nauw contact.
For so long, the idea of humanoidrobotsheld the promise of taking care of boring tasks and letting us focus on more important things. Yet here we are, without a robot that helps simplify our lives like Rosey the Robot from The Jetsons.
Still, the technology behind robots has been advancing rapidly as of late, leading to bots that have impressive dexterity or AI reasoning. Most of these robots aren’t available to customers yet, but they reignite the hope that we’re closer to robot butlers who can achieve the holy grail — doing our laundry. Here are eight of the most exciting humanoid robots that you could see in your future homes.
1.Boston Dynamics Atlas
The new and improved Atlas moves like a contortionist.
BOSTON DYNAMICS
Perhaps one of the more popular names in robotics, Boston Dynamics recently gave its humanoid robot a serious makeover. The next-gen Atlas might not move like a human anymore, but the company says this improved range of movement opens it up for more applications. Boston Dynamics will first put its latest Atlas to test in Hyundai’s manufacturing plants.
2. Tesla Optimus
The Tesla bot will use the same AI that’s found in its EVs.
TESLA OPTIMUS / X
In Tesla’s latest video showing off its humanoid robot, Optimus handles precise tasks like sorting battery cells, with ease. Besides factory use, we can see Tesla’s bot running tests with sorting laundry, organizing shelves, and even walking around the office. Tesla will likely put Optimus to work in its manufacturing plants first, but its dexterity looks like it can take care of household chores too — well, sort of.
3. Figure 01
Figure 01 looks about as close to a robot butler as we can get right now.
FIGURE
Unlike Atlas and Optimus, Figure leans on OpenAI and its ChatGPT model to add a realistic touch to its humanoid robot. As seen in this demo, Figure 01 can smoothly handle conversations with humans, while understanding tasks given to it. It can even make your coffee for you, even if it’s just pushing a button on a Keurig. Figure plans to use its robots in BMW’s manufacturing plant in South Carolina to start.
4. Unitree G1
The G1’s mobility is something to behold.
UNITREE
With 43 joint motors, Unitree’s G1 gets up from the floor just as creepily as Boston Dynamics’ Atlas. However, it can also run up to 4.5 mph, solder wires with its three-pronged hand, and even make breakfast for you. Best of all, Unitree is positioning the G1 to be a more affordable option to the existing competition at $16,000.
5. Agility Digit
We’ll see the Digit on Amazon assembly lines.
AGILITY ROBOTICS / X
You may remember Agility’s Digit robot when it partnered with Ford back in 2020. The partnership for the five-foot, nine-inch humanoid robot seems to have fizzled, but Digit found a new home through Amazon. The company plans to use it at its warehouses, but Digit’s capabilities of carrying up to 35 pounds and reaching things as high as six feet could be just as useful at home.
6. Sanctuary AI Phoenix
The Phoenix can quickly sort through various objects.
SANCTUARY AI / YOUTUBE
You might not have heard of Phoenix yet, but Sanctuary AI is actually on the seventh generation of its humanoid robot. The latest upgrade improves the Phoenix’s range of motion in all of its arm joints and how fast it can learn new tasks, now taking less than 24 hours. Sanctuary AI already deployed its Phoenix with Canadian Tire Corporation, but its general-purpose design means it can be programmed for more than that.
7. Apptronik Apollo
A friendly face makes the Apollo seem more human than others.
APPTRONIK / X
These mostly faceless robots may feel like a weird inclusion at home, but Apptronik solves that with Apollo and its digital panels on its face and chest. This design allows it to communicate with its owner its battery percentage, what task it’s working on, and what’s next on its queue.
Apptronik wants the Apollo to be like the iPhone of the robot world since it has “user-friendly hardware” that’s meant to be added on with third-party applications. We’ll see it in action soon in Mercedes-Benz’s manufacturing plants.
8. Ubtech Walker S
Thanks to Baidu’s Ernie AI, the Walker S can communicate with humans in real-time.
UBTECH / YOUTUBE
Like Figure 01, Ubtech’s Walker S leans on Baidu’s Ernie AI to understand real-time interactions and requests. It can handle things like folding clothes, while even giving you fashion advice on what to pair something with. Nio already employed the Walker S on its EV production lines, where it can be seen handling specific tasks like checking seatbelt safety and installing car emblem logos.
Jeff Bezos spent $42 million to build a massive clock inside a mountain that ticks just once a year for the next 10,000 years. The “Clock of the Long NowLong Now“, also called the “10,000-year clock” is supposed to outlast humanity. The world’s richest man was fascinated by the idea proposed by the computer scientist and inventor Danny Hillis back in 1995.
Danny thought of building a clock that ticks only once a year. It would have a special hand that moves just once every 100 years and a bell that rings to mark every 1,000 years. Danny’s dream was, and still is, to create a clock that will keep working and keep time for the next 10,000 years. After many years of planning and designing, the final design of the clock is now ready, and they have started making the parts for it.
The clock is being built in the Sierra Diablo mountains in West Texas owned by Jeff Bezos. This clock is designed to last for thousands of years and will run using the Earth’s natural temperature changes. There will be five large rooms inside the clock, each celebrating a significant anniversary: the first year, the 10th year, the 100th year, the 1,000th year, and the 10,000th year. There is no information about when the construction of the clock will be finished. It is in a very remote area, and one has to take a long hike to get there. This journey is meant to make you think deeply and reflect.
The first prototype, on display at the Science Museum in London, 2005. Image Credit: Wikimedia Commons
In 1995, Danny explained: “I cannot imagine the future, but I care about it. I know I am a part of a story that starts long before I can remember and continues long beyond when anyone will remember me. I sense that I am alive at a time of important change, and I feel a responsibility to make sure that the change comes out well. I plant my acorns knowing that I will never live to harvest the oaks. I have hope for the future.” (Source)
When it’s finished, the mechanical clock tower will stand 500 feet tall. The clock is built to show time using displays that follow the movements of the stars and the calendar. It will also have a chime that can play more than 3.5 million different bell sounds. This clock is meant to be a symbol for our modern times, encouraging us to think about the long-term future. It is designed to get future generations involved in its upkeep and use.
The first chamber shows a model of the solar system that is smaller than the real one. The other rooms are meant for people in the future to add their contributions. Jeff Bezos is motivated by a desire to encourage long-term thinking and responsibility, which is similar to the ideas of Danny Hillis.
In 1986, Hillis expressed alarm that society had what he called a “mental barrier” of looking at the year 2000 as the limit of the future. He proposed a project to build a mechanical clock that would last 10,000 years. Image via YouTube
In the words of Stewart Brand, a founding board member of the foundation, “Such a clock, if sufficiently impressive and well-engineered, would embody deep time for people. It should be charismatic to visit, interesting to think about, and famous enough to become iconic in the public discourse. Ideally, it would do for thinking about time what the photographs of Earth from space have done for thinking about the environment. Such icons reframe the way people think.”
The clock is built to keep track of a future for civilization that is as long as the time that has already passed. This means the people who made the clock believe we are halfway through humanity’s existence. They see this as a positive and hopeful view of our future.
The basic design principles and requirements for the clock are:
Longevity: The clock should be accurate even after 10,000 years, and must not contain valuable parts (such as jewels, expensive metals, or special alloys) that might be looted;
Maintainability: Future generations should be able to keep the clock working, if necessary, with nothing more advanced than Bronze Age tools and materials;
Transparency: The clock should be understandable without stopping or disassembling it; no functionality should be opaque;
Evolvability: It should be possible to improve the clock over time;
Scalability: To ensure that the final large clock will work properly, smaller prototypes must be built and tested.
In 2011 Hillis was asked why he worked on the clock instead of his biotech startup for cancer research. He said: “I think this is the most important thing I can work on. More than cancer. Over the long run, I think this will make more difference to more people.”
Image Credit: Jeff Bezos/Twitter
Right now, there are three prototypes. The first one is in the Science Museum in London. The other two are at The Long NowLong Now Museum and Store in San Francisco. But there’s also another model on Jeff Bezos’ Texas ranch. People sometimes think that one is the original Long Now, but it’s not. Construction on that one has just started.
This mechanical clock needs people to wind it up using a falling weight, and it has a solar synchronizer to keep it accurate. Even if someone forgets to wind it, it will still work, just will not show the time. Instead of regular gears, it has special digital parts that help it keep track of time like a stopwatch does.
The Clock of the Long NowClock of the Long NowLong Now will be located on Foundation land in Nevada. Bezos’ is at his ranch in Texas, which also holds the Blue Origin spaceport and is now heavily under construction. The completion of this project will inform the final design of the Long Now, so we’re technically looking at two different projects rather than a single one and its prototype.
To build a clock, the engineers will use strong materials like titanium, ceramics, quartz, sapphire, and stainless steel. They will bury the most important part of the clock deep underground, 500 feet into a mountain, and seal it off with metal doors. The clock will be safe from damage because it is situated in a dry and remote place, away from civilization that will protect it from corrosion, vandalism, and development.
Danny chose this area of Nevada in part because it is home to a number of dwarf bristlecone pines, which the Foundation notes are nearly 5,000 years old. The clock will be almost entirely underground, and only accessed by foot traffic from the east once complete.
Building a clock that will last for 10,000 years is very challenging. It needs to be made with great accuracy, be strong enough to survive for a long time, and be able to cope with changes in the environment. However, there are worries about how the construction might affect the natural surroundings in that area.
Het landschap van door AI aangedreven humanoïde robots wordt steeds drukker. Tegenwoordig zijn er verschillende androïden die innovatieve prestaties beloven en soms handhaven: sommigen zetten koffie, anderen weten hoe ze stemmen moeten imiteren, weer anderen dragen grote ladingen. In zo’n context valt Astribot S1 echter op, een mensachtige robot ontwikkeld door een Chinees bedrijf die een ongekende combinatie van snelheid en precisie belooft. Kijkend naar de videopresentatie lijkt het of ze er echt in geslaagd zijn.
Een nieuwe robot geanimeerd door kunstmatige intelligentie
Astribot/Youtube
Stardust Intelligence is een innovatieve startup op het gebied van kunstmatige intelligentie en heeft in iets meer dan een jaar een mensachtige robot ontwikkeld die nu al buitengewone resultaten laat zien. Het geheim van Astribot S1 ligt in de integratie met kunstmatige intelligentie, waardoor het taken kan uitvoeren die als exclusief voor mensen worden beschouwd, en in het vermogen om op verschillende manieren te leren. We hebben het over het correct opvouwen van kleding, snelle bereiding van voedsel, nauwkeurig schrijven in Japanse kanji: we zullen het zien in de video "Hello world".
Volgens Stardust Intelligence vertegenwoordigt de Astribot S1 het hoogtepunt in het gebruik van kunstmatige intelligentie met androïden, zoals blijkt uit de video waarin de mensachtige robot aan de hele wereld wordt gepresenteerd. Bovendien kan S1 snelheden bereiken van 10 meter per seconde (mensen arriveren rond de 7) en is hij bestand tegen zware lasten.
Een behendigheid die de confrontatie met mensen niet schuwt
Astribot/Youtube
Het is logisch om je af te vragen hoe Astribot S1 zo snel en precies is in zijn bewegingen, zozeer zelfs dat het de exclusiviteit van sommige activiteiten, die tot nu toe als louter menselijk werden beschouwd, in twijfel trekt. Het bedrijf heeft geen technische details bekendgemaakt over het S1 AI-trainingsproces, noch over hoe het mogelijk was om het in iets meer dan een jaar te ontwikkelen, maar het is mogelijk om een beetje een idee te krijgen.
Allereerst lijkt het hybride ontwerp een winnende keuze: vanaf de taille heeft de Astribot S1 een basis met wielen, terwijl het bovenaan een mensachtige robot is. Aan de softwarekant kan het videogegevens verzamelen, nauwkeurige bewegingsregistratie uitvoeren en zelfs bewerkingen op afstand uitvoeren. In de videopresentatie zien we Astribot S1 een reeks taken uitproberen: de Android plaatst voorwerpen in bak, ontkurkt een fles, stofzuigt.
De toekomst van robotica
Astribot/Youtube
Stardust Intelligence zorgt ervoor dat de video’s op normale snelheid worden afgespeeld en geen manipulaties bevatten: als dit wel het geval zou zijn, zouden we de toekomst van robotica en de samenleving tegemoet treden. En misschien is dit wel het meest zorgwekkend. Astribot S1 ontleent zijn naam aan het Latijnse motto per aspera ad astra, wat “via moeilijkheden naar de sterren” betekent, en weerspiegelt de ambitie van Stardust Intelligence op het gebied van robotica. De mogelijkheden van de S1 lijken inderdaad zowel buitengewoon als onwerkelijk, alsof de toekomst op de deur klopt. Een deur die binnenkort opengaat: Astribot S1 is bijna klaar om op de markt te worden gebracht.
Aan de ene kant kan men daarom niet anders dan de enorme vooruitgang erkennen die is geboekt door het onderzoek naar kunstmatige intelligentie en de ontwikkeling van steeds snellere en nauwkeurigere androïden. Aan de andere kant is het legitiem om je af te vragen welke toekomst deze nieuwe machines kunnen bouwen. En wat ons aandeel daarin is.
A team of researchers says they have successfully created an immersive 3D augmented reality headset using ordinary glasses instead of the bulky apparatus employed by typical VR and AR headsets.
While still in the prototype phase, the researchers believe that their augmented reality 3D glasses could impact anything from gaming and social media environments to training and education applications.
“Our headset appears to the outside world just like an everyday pair of glasses, but what the wearer sees through the lenses is an enriched world overlaid with vibrant, full-color 3D computed imagery,” said Stanford’s Gordon Wetzstein, an associate professor of electrical engineering.
“There is no other augmented reality system out there now with comparable compact form factor, or that matches our 3D image quality,” added Gun-Yeal Lee, a postdoctoral researcher in the Stanford Computational Imaging lab and co-first author of the published paper outlining the team’s efforts.
BULKY HEADSETS HAVE LIMITED APPLICATION OF AUGMENTED REALITY
The Stanford researchers faced a number of technical hurdles in combining the benefits of current VR headsets with the versatility and ease of ordinary glasses. The first was reducing or replacing the complex optical systems used in bulkier headsets. That’s because these headsets don’t allow the viewer to see the landscape directly.
Instead, tiny cameras capture what the wearer is “looking” at and then project a viewable, 3D image on a tiny screen embedded within the device. For augmented reality purposes, any data used to aid the viewer is overlaid on this digital projection rather than appearing on top of the actual image.
“The user sees a digitized approximation of the real world with computed imagery overlaid,” explained Lee. “It’s sort of augmented virtual reality, not true augmented reality.”
Unfortunately, these types of headsets employ magnifying lenses between the user’s eye and the screen. To work properly, this layout requires a set distance between the eye, the lens, and the screen, resulting in the oversized, bulky headsets currently on the market. According to user experience, this setup can also detract from the overall immersive “realness” of the augmented reality experience, defeating the entire point of the system.
“Beyond bulkiness, these limitations can also lead to unsatisfactory perceptual realism and, often, visual discomfort,” explained Suyeon Choi, a doctoral student in the Stanford Computational Imaging lab and co-author of the paper.
80-YEAR-OLD TECHNIQUE MEETS CUTTING-EDGE SCIENCE TO BREAK TECHNOLOGICAL BARRIERS
Determined to overcome these obstacles, the Stanford researchers turned to a Nobel Prize-winning technology first developed in the 1940s: holography. According to the team, this technique has seen limited use in VR and #D systems due to issues with the depth perception of visual cues, “leading to an underwhelming, sometimes nausea-inducing, visual experience.”
Still, the researchers believed that holography was the key to eliminating the bulky lens-and-screen technique and creating a true, augmented reality headset that allows the viewer to see the real image while simultaneously receiving overlaid information about that image in real time. The key, they determined, was improving the 80-year-old holography techniques with the power of 21st-century AI computing to dramatically improve the depth cues of the projected holographic images.
“With holography, you also get the full 3D volume in front of each eye increasing the life-like 3D image quality,” said Brian Chao, a doctoral student in the Stanford Computational Imaging lab and also co-author of the paper.
The team also employed modern breakthroughs in nanophotonics and waveguide technologies, which increased the complexity and overall realness of the projected images. According to the press release announcing the breakthrough, “A waveguide is constructed by etching nanometer-scale patterns onto the lens surface. Small holographic displays mounted at each temple project the computed imagery through the etched patterns which bounce the light within the lens before it is delivered directly to the viewer’s eye.”
As a result, someone wearing the team’s new ordinary-looking glass lenses can see both the “real world” and the 3D computer-enhanced augmented reality images displayed on top of the world.
Through holography and AI, these glasses can display full-color, 3D moving images over an otherwise direct view of the real world.
Image credit: Andrew Brodhead.
POTENTIAL APPLICATIONS INCLUDE GAMING, MILITARY SIMULATIONS, AND ON-THE-JOB TRAINING
Having completed their initial prototype, the team says they can now envision a number of potential applications for their system. Some obvious uses include enhanced gaming or other recreational uses that have thus far eluded current bulkier headsets. However, the team says they believe their system could dramatically improve the work done by highly-trained experts in medicine or engineering.
“One could imagine a surgeon wearing such glasses to plan a delicate or complex surgery or airplane mechanic using them to learn to work on the latest jet engine,” said Manu Gopakumar, a doctoral student in the Stanford Computational Imaging lab and co-first author of the paper.
Although more work is expected before the augmented reality headset made from ordinary glasses is commercially available, the Stanford team says their ability to combine modern AI techniques and nanophotonic breakthroughs with 1940s holography is the step that folks in their industry have been waiting for.
“Holographic displays have long been considered the ultimate 3D technique, but it’s never quite achieved that big commercial breakthrough,” Wetzstein said. “Maybe now they have the killer app they’ve been waiting for all these years.”
Christopher Plain is a Science Fiction and Fantasy novelist and Head Science Writer at The Debrief. Follow and connect with him on X, learn about his books at plainfiction.com, or email him directly at christopher@thedebrief.org.
0
1
2
3
4
5
- Gemiddelde waardering: 0/5 - (0 Stemmen) Categorie:SF-snufjes }, Robotics and A.I. Artificiel Intelligence ( E, F en NL )
Would You Trust Robot to Look After Your Cat?
Would You Trust Robot to Look After Your Cat?
Scientists from the University of Nottingham and artists from Blast Theory have created Cat Royale, a multispecies world centered around a bespoke enclosure in which three cats and a robot arm coexist for six hours a day during a twelve-day installation.
“From cleaning our homes, to mowing our lawns, to delivering shopping and couriering items around hospitals, robots are finding their place in daily life,” said University of Nottingham’s Professor Steve Benford and colleagues.
“As they do so, they will inevitably interact with and be encountered by animals.”
“These might be companion animals, the pets who share our homes or the guide dogs who help us navigate public places, but they might also be wildlife.”
“Often these encounters will be unplanned and secondary to the robot’s intended task, for example cats riding Roombas, guide dogs being confused by delivery robots, or hedgehogs having to navigate in a world inhabited by lawn mowing robots.”
“However, they could also be intentional. We could design robots to serve animals too.”
“Despite the inevitability of such encounters, planned or otherwise, little is known about how to design robots for animals. Can we even trust them with each other?”
“We present Cat Royale, a creative exploration of designing a domestic robot to enrich the lives of cats through play.”
Schneiders et al. suggest it takes more than a carefully designed robot to care for your cat, the environment in which they operate is also vital, as well as human interaction.
Image credit: Schneiders et al., doi: 10.1145/3613904.3642115.
Cat Royale was launched in 2023 at the World Science Festival in Brisbane, Australia and has been touring since, it has just won a Webby award for its creative experience.
The installation centered around a robot arm offering activities to make the cats happier, these included dragging a ‘mouse’ toy along the floor, raising a feather ‘bird’ into the air, and even offering them treats to eat.
The team then trained an AI to learn what games the cats liked best so that it could personalize their experiences.
“At first glance, the project is about designing a robot to enrich the lives of a family of cats by playing with them,” Professor Benford said.
“Under the surface, however, it explores the question of what it takes to trust a robot to look after our loved ones and potentially ourselves.”
Working with Blast Theory to develop and then study Cat Royale, the researchers gained important insights into the design of robots and its interactions with the cats.
They had to design the robot to pick up toys, deploy them in ways that excited the cats, while it learned which games each cat liked.
They also designed the entire world in which the cats and the robot lived, providing safe spaces for the cats to observe the robot and from which to sneak up on it, and decorating it so that the robot had the best chance of spotting the approaching cats.
The implication is designing robots involves interior design as well as engineering and AI.
If you want to introduce robots into your home to look after your loved ones, then you will likely need to redesign your home.
“As we learned through Cat Royale, creating a multispecies system — where cats, robots, and humans are all accounted for — takes more than just designing the robot,” said Dr. Eike Schneiders, a researcher at the University of Nottingham.
“We had to ensure animal wellbeing at all times, while simultaneously ensuring that the interactive installation engaged the (human) audiences around the world.”
“This involved consideration of many elements, including the design of the enclosure, the robot and its underlying systems, the various roles of the humans-in-the-loop, and, of course, the selection of the cats.”
Eike Schneiders et al. Designing Multispecies Worlds for Robots, Cats, and Humans. CHI ‘24: Proceedings of the CHI Conference on Human Factors in Computing Systems, article #593; doi: 10.1145/3613904.3642115
Wetenschappers hebben plastic uitgevonden dat zichzelf op kan lossen. Ze hebben dit bereikt door het materiaal – letterlijk – nieuw leven in te blazen.
Het klinkt enigszins bizar, maar niks is minder waar: wetenschappers hebben ‘levend plastic’ uitgevonden. Uit het onderzoek blijkt ook al meteen dat het hier om een wondermiddel gaat: het nieuwe materiaal is sterker én flexibeler dan voorheen mogelijk was. Niet alleen dat; de grootste troefkaart van het levende plastic is nog wel het feit dat het zichzelf op kan lossen – zonder hulp van buitenaf. Wetenschapper Jon Pokorski is dan ook enthousiast. Hij legt uit: “Dit materiaal kan zichzelf afbreken zonder de aanwezigheid van andere microben. Het is goed mogelijk dat, in de toekomst, veel van dit soort plastic zal eindigen buiten een compostfabriek (waar het verwerkt kan worden, red.). Het vermogen om zichzelf af te breken maakt deze technologie dan ook een stuk veelzijdiger.” Het onderzoek is gepubliceerd in het blad Nature Communications.
Evolutie Het directe productieproces van het nieuwe materiaal blijkt verrassend simpel te zijn. Zo hebben de wetenschappers gebruik gemaakt van thermoplastic polyurethane (TPU); een zachte plasticsoort die veelvuldig gebruikt wordt voor, onder andere, memory foam. Vervolgens hebben ze gebruik gemaakt van de bacteriesoort Bacillus subtilis, een soort die bekend staat om het vermogen om plastic af te breken. Pokorski voegt toe: “Dit is een inherente eigenschap van deze bacteriën. We kozen uit een aantal bacteriemonsters en onderzochten welke het beste gebruik kon maken van TPU. Naderhand kozen we het exemplaar dat het beste kon groeien.”
Voor de laatste stap van het productieproces werden de ‘ingrediënten’ opgewarmd tot een temperatuur van 135 graden Celsius, waarna deze werden gemixt in een machine die plastic kan produceren. Er was hierbij echter sprake van een probleem: de bacteriesoort was, van origine, niet ingericht om deze temperatuur ook te overleven. Er was dus meer onderzoek nodig om ervoor te zorgen dat het productieproces goed verliep. Mede-onderzoeker Adam Feist heeft meegewerkt aan het onderzoek. Hij licht toe: “In het lab hebben we continu cellen laten evolueren om de hogere temperaturen aan te kunnen die nodig zijn voor de productie van TPU.” Dit proces bestond hoofdzakelijk uit het – heel praktisch – opwarmen van bacteriën naar steeds hogere temperaturen, om naderhand de overlevende exemplaren verder te kweken en de testen te herhalen. Feist laat weten: “Uiteindelijk kwamen we uit bij een exemplaar dat de intense hitte aankon. Het was opmerkelijk hoe goed dit proces van bacteriële evolutie en selectie uiteindelijk bleek te werken.”
Verbeteringen Het nieuwe materiaal is interessant, omdat het zichzelf voor 90% op kan lossen in slechts vijf maanden tijd. Daarnaast lijken de bacteriën het plastic ook te versterken en te versoepelen. Pokorski vult aan; “Beide eigenschappen werden sterk verbeterd na de komst van de bacteriën. Dit is fantastisch, omdat de toevoeging van de bacteriesoort dus de mechanische eigenschappen van het materiaal ver voorbij de huidige grenzen kon duwen. Eerder bestond er altijd een balans tussen stevigheid en flexibiliteit.”
De wetenschappers hebben echter nog wel een hoop vervolgonderzoek te doen. Zo is vooralsnog onbekend wat er uiteindelijk overblijft van het plastic – nadat het zichzelf heeft afgebroken. De wetenschappers speculeren dat het restant niet schadelijk zou moeten zijn, omdat B. subtilis doorgaans goed voor de gezondheid is van mensen, dieren en planten. De wetenschappers laten weten dat ze, in de toekomst, het onderzoek willen herhalen met meer soorten plastic. Feist sluit af: “Er bestaan veel verschillende soorten commercieel plastic, TPU is er hier slechts één van. Voor ons vervolgplan willen we meer afbreekbare materialen maken die leunen op deze technologie.”
Here’s another terrifying look into the future of AI, courtesy of Microsoft.
Microsoft introduced the VASA-1 research project that can take a single image and an audio clip and transform it into a high-quality video of a talking head that looks eerily similar to the real thing. We have to stress that it’s just a research project at the moment, meaning it’s not readily accessible, but that doesn’t make it any less disconcerting.
There are innocuous examples with VASA-1, like infusing Mona Lisa with Anne Hathaway’s rap skills but we’re more concerned about the likelihood that this will be used to create deepfakes with a more nefarious purpose — think spreading misinformation or carrying out identity theft.
It’s unsettling how easy it is to churn out a video avatar with VASA-1.
MICROSOFT
A SIMPLE RECIPE
Microsoft explains that you simply upload an image and an audio recording and VASA-1 spits back out a 512 x 512 resolution video with up to 40 fps and barely any latency. Looking at the demos, VASA-1 does a convincing job syncing the audio to the lip movements and can even deliver emotions and expressions through subtle facial movements with eyebrows and head nods.
To finetune the result, VASA-1 lets you control where the generated avatar is looking, how close the model is, and the emotion you want to convey. You can go with a standard neutral expression or inject some happiness, anger, or surprise into your AI-generated video.
On a more unrealistic note, VASA-1 can also handle source material like paintings or singing audio. As convincing as all of these models are, we can still see slight irregularities like some rippling around the ears or an unnatural warping effect with big head movements.
VASA-1 can even be tweaked to convey certain emotions like happiness, anger, and surprise.
MICROSOFT
JUST A TASTE OF VERSION 1
As the name hints, VASA-1 is only the first model for Microsoft’s overall VASA framework, meaning this could (or likely will) be improved upon. These initial example videos generated from VASA-1 are only demonstrations of the research project’s capabilities thus far, so again, there aren’t any plans to push this into the public’s hands yet.
“We have no plans to release an online demo, API, product, additional implementation details, or any related offerings until we are certain that the technology will be used responsibly and in accordance with proper regulations,” Microsoft noted on its website.
As concerning as this tech is and Microsoft does acknowledge its potential for misuse, the research team argues that there are a lot of upsides here. For example, VASA-1 could be used to ensure everyone gets an equal opportunity at education, assist those with communication issues, or even just offer a friendly face to those who need it. Still, if we were placing bets, I’d lean towards tech of this caliber being used for the wrong purposes.
A team of scientists from the University of Tokyo has revealed a major breakthrough that allows them to create realistic 3D holographic displays using an ordinary iPhone screen.
While conventional approaches to holography involve complex and expensive laser emitters that have limited their practical use, the researchers behind this novel approach say their work could lead to dramatic improvements in holographic displays for virtual reality applications, including gaming, training, and even advanced military applications.
3D HOLOGRAPHIC DISPLAYS LIMITED BY COST AND COMPLEXITY
In science fiction, holograms are used for anything from basic communications to advanced military weaponry. In the real world, 3D holographic displays have yet to break through to everyday products and devices. That’s because creating holograms that look real and have significant fidelity requires laser emitters or other advanced pieces of optical equipment. This situation has stymied commercial development, as these components are complex and expensive.
More recently, research scientists were able to create realistic 3D holographic images without lasers by using a white chip-on-board light-emitting diode. Unfortunately, that method required two spatial light modulators to control the wave fronts of the emitted light, adding a prohibitive amount of complexity and cost.
Now, those same scientists say they have created a simpler, more cost-effective way to create realistic-looking 3D holographic displays using only one spatial light modulator and new software algorithms. The result is a simpler and cheaper method for creating holograms that an everyday technology like a smartphone screen can emit.
IPHONE 14 SCREEN CREATES REALISTIC HOLOGRAMS
“Although holography techniques can create a very real-looking 3D representation of objects, traditional approaches aren’t practical because they rely on laser sources,” said research team leader Ryoichi Horisaki from The University of Tokyo in Japan. “Lasers emit coherent light that is easy to control, but they make the system complex, expensive, and potentially harmful to the eyes.”
To conquer this limitation, Horisaki’s team wanted to see if they could use lower-cost technology and the power of advanced computer algorithms to create a 3D holographic display that would rival displays using lasers. The key, they say, is a technology known as computer-generated holography (CGH) paired with a simple component known as a spatial light modulator.
Researchers developed a 3D full-color display method that uses a smartphone screen, rather than a laser, to create holographic images. Shown are their experimental results, in which a continuous transition from the first layer to the second layer is observable. CREDIT: Ryoichi Horisaki, The University of Tokyo
To demonstrate their potential breakthrough approach, the researchers created a two-layer optical reproduction of a full-color three-dimensional image. The first layer is projected by the spatial light modulator, and the second layer is projected by the screen off of an iPhone 14 smartphone.
Next, the team’s customized algorithms coordinated the display of the two images to create a realistic-looking 3D holographic display that resembled those produced by expensive laser systems.
While the approach seems simple on the surface, the scientists say it is incredibly complex.
“It required carefully modeling the incoherent light propagation process from the screen and then using this information to develop a new algorithm that coordinated the light coming from the device screen with a single spatial light modulator,” they explain.
Fortunately, that work paid off, resulting in a new approach to designing and projecting realistic holographic displays that are significantly simpler and less expensive than the industry standard.
“This work aligns with our laboratory’s focus on computational imaging, a research field dedicated to innovating optical imaging systems by integrating optics with information science,” said Horisaki. “We focus on minimizing optical components and eliminating impractical requirements in conventional optical systems.”
“Holographic displays that use low-coherence light could enable realistic 3D displays while potentially reducing costs and complexity,” added Otoya Shigematsu, the paper’s first author. “Although several groups, including ours, have demonstrated holographic displays using low-coherence light, we took this concept to the extreme by using a smartphone display.”
NEW APPROACH COULD REVOLUTIONIZE VIRTUAL REALITY
In their study, which is published in the journal Optical Letters, the scientists behind the new method for generating 3D holographic displays say their current work only created a demonstration of their approach and that more work would be needed to apply it to commercial, military, and industrial applications.
First author Otoya Shigematsu is shown in the laboratory with the optical experiment setup used for the work.
CREDIT: Ryoichi Horisaki, The University of Tokyo.
However, they say the basic science behind the integration of computer algorithms and simple display technologies is a huge step toward dramatic improvements in virtual reality devices like headsets used in virtual gaming environments. In fact, they believe that their method is actually safer than traditional approaches, especially when used in close-up displays like VR headsets.
“We believe that this method could eventually be useful for minimizing the optics, reducing costs, and decreasing the potential harm to eyes in future visual interfaces and 3D display applications,” said Shigematsu. “More specifically, it has the potential to enhance the performance of near-eye displays, such as the ones being used in high-end virtual reality headsets.”
The scientists say they are now working on improving their algorithms to increase the number of layers and, therefore, the digital information they can display. If successful, they say they could create even more complex and realistic 3D holographic displays.
Christopher Plain is a Science Fiction and Fantasy novelist and Head Science Writer at The Debrief. Follow and connect with him on X, learn about his books at plainfiction.com, or email him directly at christopher@thedebrief.org.
De meest indrukwekkende dingen ooit gemaakt met een 3D-printer Iedereen en hun buurman weten dat de wereld met elke nieuwe dag exponentieel sneller verandert. Maar een van de meest fascinerende revoluties die plaatsvinden in laboratoria over de hele wereld is de opkomst van 3D-printen. Van dingen die je kunt eten tot vervangingen voor voeten en alles daartussenin.
LEES VERDER om enkele van de meest indrukwekkende dingen te zien die 3D-printers ooit hebben gemaakt.
Een hart Israëlische wetenschappers van de Universiteit van Tel Aviv hebben naar verluidt 's werelds eerste 3D-geprinte, gevasculariseerde technische hart gecreëerd.
Ongeboren baby Een Ests 3D-technologiebedrijf besloot het ultieme zwangerschapssouvenir te maken, waardoor ouders de kans krijgen hun baby aan te raken voordat deze zelfs maar geboren is.
Ongeboren baby Nadat ze zorgvuldige foto's hebben gemaakt, printen ze 3D-foetusmodellen zo gedetailleerd dat je al hun vingers kunt tellen en kunt zien wiens neus de baby heeft!
Jezelf Je maakt eerst een fotografische scan van 360 graden van een persoon en geeft deze vervolgens weer in een digitaal 3D-model (en retoucheert het model zodat het voldoet aan de vereisten voor afdrukken). De drukmachine gebruikt dit digitale model vervolgens om een solide figuur met hoge resolutie te produceren.
Een wervelkolom-as Een kunstmatige 3D-geprinte as, de eerste die ooit met succes in de wervelkolom van een botkankerpatiënt is geïmplanteerd, wordt geïmplanteerd in een model in het Peking University Third Hospital in Beijing.
Prothetische onderarm De Taiwanese ingenieur Chang Hsien-Liang verloor zijn onderarm bij een ongeval en was zeer ontevreden over zijn prothetische opties. Daarom ontwierp en bouwde hij zijn eigen prothetische onderarm met behulp van 3D-printtechnologie!
Een toekansnavel Grecia de toekan verloor het grootste deel van zijn bovensnavel bij een aanval, maar hij kan nu eten met zijn 3D-geprinte snavel in het dierenasiel Zoo Ave in Alajuela, Costa Rica.
Ijsje Bedrukte lekkernijen die je kunt eten! In de Iceason-winkel in Shanghai worden deze kleine karakters gemaakt van ijs met aardbeienmelksmaak en vervaardigd door een 3D-printer.
Een chocoladebierflesje Gaetan Richard, oprichter van het 3D-printchocoladebedrijf Miam Factory, maakt iets waarvan je niet wist dat je het nodig had: een chocoladebierflesje.
Een motor Ontwerper Marco Mattia Cristofori, van de Duitse 3D-printerfabrikant BigRep, creëerde een bijna volledig 3D-geprinte e-motorfiets, genaamd "NERA".
Een auto Tijdens een rondleiding door Techmer PM, een kunststofproductiebedrijf in Tennessee, wierp Barack Obama een blik op een 3D-geprinte Shelby Cobra.
Vliegtuigstoelen Airgo's 3D-geprinte prototype van hun Orion-vliegtuigstoelen voor lange afstanden ziet er zeker uit als een upgrade van een touringcar.
Viool Hier poseert de Franse ingenieur en professionele violist Laurent Bernadac met een 3D-geprinte viool gemaakt van transparante hars, de "3Dvarius" genoemd.
Kunststof werkende pistolen In 2014 werd Yoshimoto Imura de eerste man die in Japan werd gearresteerd wegens illegaal bezit van twee plastic pistolen die hij zelf had gemaakt met behulp van 3D-printtechnologie.
Huisvesting Onderzoekers van de Universiteit van Nantes in Frankrijk hebben het startschot gegeven voor een 3D-geprint sociaal woningbouwgebouw genaamd 'Yhnova'
Geavanceerde geometrische structuren De M1 3D-printer bij Carbon in Redwood City, Californië concurreert met de ingewikkelde creaties van de natuur zelf.
0
1
2
3
4
5
- Gemiddelde waardering: 0/5 - (0 Stemmen) Categorie:SF-snufjes }, Robotics and A.I. Artificiel Intelligence ( E, F en NL )
29-03-2024
Study: Introduced Tardigrade Proteins Slow Metabolism in Human Cells
Study: Introduced Tardigrade Proteins Slow Metabolism in Human Cells
New research led by the the University of Wyoming, Laramie, provides additional evidence that tardigrade proteins eventually could be used to make life-saving treatments available to people where refrigeration is not possible and enhance storage of cell-based therapies.
Sanchez-Martinez et al. provide insights into how tardigrades induce reversible biostasis through the self-assembly of labile CAHS gels.
First discovered in 1773, tardigrades are a diverse group of microscopic invertebrates that are best known for their ability to survive extreme conditions.
Also known as water bears or moss piglets, these creatures can live for up to 60 years, and grow to a maximum size of 0.5 mm, best seen under a microscope.
They are able to survive for up to 30 years without food or water, for a few minutes at temperatures as low as minus 272 degrees Celsius (minus 457 degrees Fahrenheit) or as high as 150 degrees Celsius (302 degrees Fahrenheit), and minus 20 degrees Celsius (minus 4 degrees Fahrenheit) for decades.
Tardigrades withstand pressures from virtually 0 atm in space up to 1,200 atm at the bottom of the Marianas Trench, and are also resistant to radiation levels up to 5,000-6,200 Gy.
They survive by entering a state of suspended animation called biostasis, using proteins that form gels inside of cells and slow down life processes.
“Amazingly, when we introduce these proteins into cells, they gel and slow down metabolism, just like in tardigrades,” said Dr. Silvia Sanchez-Martinez, a researcher at the University of Wyoming, Laramie.
“Furthermore, just like tardigrades, when you put human cells that have these proteins into biostasis, they become more resistant to stresses, conferring some of the tardigrades’ abilities to the human cells.”
“Importantly, our research shows that the whole process is reversible,” said Dr. Thomas Boothby, a researcher at the University of Wyoming, Laramie.
“When the stress is relieved, the tardigrade gels dissolve, and the human cells return to their normal metabolism.”
“Our findings provide an avenue for pursuing technologies centered on the induction of biostasis in cells and even whole organisms to slow aging and enhance storage and stability.”
S. Sanchez-Martinezet al. 2024. Labile assembly of a tardigrade protein induces biostasis.Protein Science33 (4): e4941; doi: 10.1002/pro.4941
Casually having a conversation with a robot butler might not be as far out as we thought.
Figure, an AI robotics company that’s attracted the financial backing of Microsoft and Nvidia, showed off why it deserves that investment money. In its latest demo, its Figure 01 is seen having a full-on conversation with another human, even completing tasks and requests.
The eerily conversational robot is a result of Figure’s robotic design and OpenAI’s intelligence on the backend. It may not be able to backflip off a skateboard, but the demo shows Figure 01 handing over an apple and putting away dishes. That’s not incredibly groundbreaking, but with how fast ChatGPT and other large language models are advancing, Figure 01 could see advancements quickly.
LAPPING THE COMPETITION
It’s impressive to see Figure 01 smoothly navigate anormal conversation with a human, all while responding to requests and handling simple tasks. Of course, putting away dishes isn’t the most complex task, but it’s a promising start considering how Figure 01 can already identify what’s in front of it and respond accordingly in real-time.
It’s a big difference compared to the demos we saw with Tesla’s Optimus bot. While Tesla has come out with a second-generation model already, Optimus has yet to show us the same fluidity and responsiveness we’re seeing with the Figure 01 demo.
Figure says the goal is to make a “fully electromechanical humanoid” robot to handle all the physical tasks that humans have to do. So far, the Figure 01 stands 5’6”, weighs more than 132 lbs, can handle payloads up to around 44 lbs, and tops out a brisk 1.2 m/s. Figure also says there’s a runtime of five hours, so it’s not quite meant to cater to your needs 24/7.
Figure debuted its 01 humanoid robot back in October.
FIGURE / X
NO RELEASE DATE YET
With Figure 01, it does feel like we’re inching towards a future of at-home robots. Still, we don’t have a release date for Figure’s robot yet, but the company’s founder and CEO Brett Adcock has already said that the company wants to produce its robots at “exceptionally high volume.”
Figure hasn’t detailed any prices for its robot yet, either, but Adcock expressed optimism for trying to bring the costs down to “affordable levels.” Considering how nascent this technology is, it’s tough to determine what’s affordable or not. For reference, Tesla’s CEO Elon Musk previously said that the Optimus robot is targeting a price of around $20,000.
A sophisticated new underwater sensor system is currently in development for the United States Navy that will aim to replicate the capabilities and detection range of one of nature’s most unique aquatic mammals.
The innovative sensor array, currently in development by researchers at Rochester Institute of Technology (RIT) with funding from the Naval Research Laboratory, reportedly aims to replicate the “superior design and detection range” possessed by harbor seals.
Inhabiting the ocean waters of the North Atlantic and Northern Pacific, harbor seals are renowned for their prowess as swimmers and aquatic hunters. Now, according to Xudong Zheng, an associate professor in RIT’s Kate Gleason College of Engineering, a unique capability these ocean mammals possess is also serving as inspiration for the development of a new sensor array for the Navy that will possess “biological-level sensitivity, accuracy, and intelligence.”
The Navy says such an advanced underwater sensor system could be used to track anomalies, in addition to aiding scientific exploration of our oceans and advancing the robotic capabilities it uses during stealth operations at sea.
Zheng says the new system he and his team are building will be “the next stage of development of stronger sensors,” adding that early results already indicate that it could help facilitate new capabilities that will help to allow “more smart perceptions and better reasoning regarding the signal pattern and how it corresponds to flow patterns.”
Additionally, Zheng and his team say they hope to improve the way the Navy’s underwater sensors can be used to collect information on the three-dimensional aspects of objects, enabling better and more consistent recognition. The team also plans to leverage artificial intelligence in ways that will further enhance the sensor system’s capabilities when operating within a variety of marine environments.
Above: Zheng (center) appears with his wife and fellow researcher Qian Xue (right) and researcher Dongfang Liu, as he displays a harbor seal’s whiskers, which inspired the team’s research (Credit: Travis Lacoss/RIT).
To achieve this, Zheng’s team drew inspiration from one of nature’s best existing underwater sensor systems.
“We are trying to mimic seals’ highly sensitive sensors using the bio-inspired shape of their whisker array,” Zheng said in a statement, adding that these marine mammals have the ability to detect disturbances nearby at an astounding rate of 254 microns per second. This is made possible in part due to the lengths and placement of their whiskers, which allow the creatures to gauge everything from speed, distance, movement, and location with astounding speed and accuracy.
Although Zheng’s team isn’t the first researchers to draw inspiration from seal’s whiskers, existing systems that work on similar principles only provide individual measurements. By mimicking a harbor seal’s natural sensor capabilities, Zheng’s team hopes they consolidate each of these detection mechanisms into a single game-changing underwater sensor array.
Current sensors that are only capable of single measurements are greatly limited in the detection of spatial information, which involves the visualization of objects from several perspectives and provides information about their relationship to their surroundings.
Zheng says the integration of comprehensive spatial recognition, paired with artificial intelligence, will be two of the primary keys that will allow the new system he and his team are designing to improve sensor accuracy overall.
The new effort is an outgrowth of Zheng’s past work, which involved studies in biomechanics and flow physics in the Department of Mechanical Engineering at Kate Gleason College.
Aided by his wife and research partner Qian Xue, also a Rochester Institute of Technology associate professor of mechanical engineering and an expert in flow-structure interaction, the duo says they are “designing very sensitive sensors that can be tightly packed into smaller spaces and that can extract spatial information,” which allows the sensors to “recognize the surrounding environment with an algorithm to accurately predict the shape of an object.”
“Based on this information, we can understand why this signal corresponds to certain types of bodies, or objects,” Zheng said in a statement, adding that their designs will implement additional technologies being undertaken at RIT to help broadly improve the capability and accuracy of the new sensors they are developing.
Zheng and the team’s current findings are outlined in the latest edition of the journal Frontiers in Robotics and AI.
Researchers from Delft University of Technology in the Netherlands have developed a new artificial intelligence (AI) tool known as “Deep-DRAM” to discover and fabricate novel metamaterials with unparalleled ease and accessibility.
The groundbreaking method promises to revolutionize metamaterial development by streamlining the discovery and creation of durable, custom-designed materials with “unprecedented functionalities” and “unusual properties.”
“Traditionally, designers use the materials available to them to design a new device or a machine. The problem with that is that the range of available material properties is limited. Some properties that we would like to have just don’t exist in nature,” study co-author and professor of biomechanical engineering, Dr. Amir Zadpoor, explained in a press release by Delft University.
“Our approach is: tell us what you want to have as properties and we engineer an appropriate material with those properties. What you will then get is not really a material but something in-between a structure and a material, a metamaterial.”
Metamaterials are materials engineered to have properties not found in naturally occurring substances. These engineered composites can defy conventional material properties by deriving their unique characteristics from a structure’s geometry rather than molecular composition.
Metamaterials are currently employed in various industries, serving practical purposes such as improving antenna performance in telecommunications and controlling sound waves for noise reduction or focusing in acoustic engineering. Recent advancements include creating the world’s first genuine “one-way glass,” showcasing metamaterials, versatility, and potential for innovative applications.
In 2006, two research papers published in Sciencedemonstrated that metamaterials could be used to manipulate the propagation and transmission of specified light frequencies and electromagnetic radiation to render an object invisible.
Recent publications from Sandia National Laboratories, the U.S. Naval Institute, and Northrop Grumman have discussed the military potential of metamaterials, suggesting the possibility of creating real-life versions of the fictional “Klingon Cloaking Device” or “Harry Potter Invisibility Cloak.” However, despite ongoing research efforts, practical metamaterial cloaking technology has yet to be publicly demonstrated thus far.
This most significant challenge in developing novel metamaterials stems from solving the so-called “inverse problem” or calculating the specific geometry needed to produce desired properties.
“Even when inverse problems were solved in the past, they have been limited by the simplifying assumption that small-scale geometry can be made from an infinite number of building blocks,” lead author Dr. Helda Pahlavani explained. “The problem with that assumption is that metamaterials are usually made by 3D printing and real 3D printers have a limited resolution, which limits the number of building blocks that fit within a given device.”
Enter Deep-DRAM: an AI-driven modular framework combining deep learning models, generative models, and finite element simulations to address these challenges head-on.
Researchers say Deep-DRAM stands out by tackling the inverse design problem from a new angle, enabling the creation of materials with tailored properties such as double auxeticity (materials that expand in two directions when stretched) and high stiffness.
Dr. Pahlavani underscored the importance of Deep-DRAM being able to overcome previous constraints, stating, “We can now simply ask: how many building blocks does your manufacturing technique allow you to accommodate in your device? The model then finds the geometry that gives you your desired properties for the number of building blocks that you can actually manufacture.”
In a paper published in the journal Advanced Materials, researchers detailed how the application of Deep-DRAM extends beyond theoretical advancements, showcasing real-world implications through extensive simulations and 3D-printed specimens.
Researchers note that the framework’s ability to generate microarchitectures resistant to fatigue and fracture highlights Deep-DRAM’s potential to produce metamaterials that are not only innovative but also durable and reliable for practical applications.
This focus on durability differs from most existing metamaterial designs, which often fail after repeated use.
“So far, it has been only about what properties can be achieved,” Dr. Zadpoor described the current processes for developing metamaterials. “Our study considers durability and selects the most durable designs from a large pool of design candidates. This makes our designs really practical and not just theoretical adventures.”
Researchers say that one of the remarkable aspects of Deep-DRAM is its modular design, allowing for the integration of various computational models to solve complex design problems efficiently. This modular approach accelerates the design process and minimizes computational costs, making it an attractive option for a wide range of applications.
The implications of the innovative Deep-DRAM framework extend far beyond the laboratory, offering tangible solutions to real-world challenges. With the ability to tailor durable metamaterials to specific needs, industries ranging from healthcare to aerospace could benefit immensely from this recent marriage of Artificial intelligence and material science.
Assistant Professor Dr. Mohammad J. Mirzaali, who also served as a corresponding author of the study, says the potential of metamaterials is limitless. However, because their optimal design has historically relied on intuition and trial and error, the metamaterials’ full potential has never been truly realized.
Yet, researchers believe the AI-driven inverse design process of Deep-DRAM could revolutionize the development of metamaterials, opening avenues for applications such as orthopedic implants, surgical instruments, soft robots, adaptive mirrors, and exosuits.
“We think the step we have taken is revolutionary in the field of metamaterials,” said Dr. Mirzaali. “It could lead to all kinds of new applications.”
Tim McMillan is a retired law enforcement executive, investigative reporter and co-founder of The Debrief. His writing typically focuses on defense, national security, the Intelligence Community and topics related to psychology. You can follow Tim on Twitter:@LtTimMcMillan. Tim can be reached by email: tim@thedebrief.org or through encrypted email:LtTimMcMillan@protonmail.com
Beste bezoeker, Heb je zelf al ooit een vreemde waarneming gedaan, laat dit dan even weten via email aan Frederick Delaere opwww.ufomeldpunt.be. Deze onderzoekers behandelen jouw melding in volledige anonimiteit en met alle respect voor jouw privacy. Ze zijn kritisch, objectief maar open minded aangelegd en zullen jou steeds een verklaring geven voor jouw waarneming! DUS AARZEL NIET, ALS JE EEN ANTWOORD OP JOUW VRAGEN WENST, CONTACTEER FREDERICK. BIJ VOORBAAT DANK...
Druk op onderstaande knop om je bestand , jouw artikel naar mij te verzenden. INDIEN HET DE MOEITE WAARD IS, PLAATS IK HET OP DE BLOG ONDER DIVERSEN MET JOUW NAAM...
Druk op onderstaande knop om een berichtje achter te laten in mijn gastenboek
Alvast bedankt voor al jouw bezoekjes en jouw reacties. Nog een prettige dag verder!!!
Over mijzelf
Ik ben Pieter, en gebruik soms ook wel de schuilnaam Peter2011.
Ik ben een man en woon in Linter (België) en mijn beroep is Ik ben op rust..
Ik ben geboren op 18/10/1950 en ben nu dus 73 jaar jong.
Mijn hobby's zijn: Ufologie en andere esoterische onderwerpen.
Op deze blog vind je onder artikels, werk van mezelf. Mijn dank gaat ook naar André, Ingrid, Oliver, Paul, Vincent, Georges Filer en MUFON voor de bijdragen voor de verschillende categorieën...
Veel leesplezier en geef je mening over deze blog.