Du må være registrert og logget inn for å kunne legge ut innlegg på freak.no
X
LOGG INN
... eller du kan registrere deg nå
Dette nettstedet er avhengig av annonseinntekter for å holde driften og videre utvikling igang. Vi liker ikke reklame heller, men alternativene er ikke mange. Vær snill å vurder å slå av annonseblokkering, eller å abonnere på en reklamefri utgave av nettstedet.
  8 2993
Er det noen som har tenkt på å skape en "real" science lab i minecraft (med alle atomer etc tilgjengelig), med all tilgjengelig forskning og formler programmert inn, skap med DNA prøver fra alt vi har tilgjengelig i virkeligheten, alt lab utstyr.. Om all forskning kontinuerlig blir puttet inn i en slik database, kan alle som ønsker det, forsker eller ikke, gå inn i en virituell lab og ha tilgang til all verdens forskning..?

Dette skulle jo, om komplett implentert, spare forskningsutgiftene betraktelig, samt burde skape mye kjappere resultater, når alle verdens nerder kan bidra på en enkel og tilgjengelig måte..

Har funnet en fysikk lover mod, men ikke noe mer enn det foreløbig.

Er det noen som kjenner til noen communities innen disse felt ?

Eventuelt noen tanker rundt ideen, anyone?
Learning by doing
Undef's Avatar
det ville mest sannsynlig kreve ufattelige mengder med datakraft for å simulere noe sånt.

hadde det fungert 100% med virkeligheten hadde det gjort seg
Trådstarter
16 0
Ja, ser den, men forhåpentligvis er Google og NASA i nærheten av noe snart
NOOOOOOOOOOOOOOOOOO-
robhol's Avatar
Bare å finne ut av alle mods man ville trengt kunne jo ha vært et ganske langvarig forskningsprosjekt.
ओम नमो नारायण
Dodecha's Avatar
DonorCrew
For det første er vel ikke minecraft det mest brukbare rammeverket for et slikt konsept.
All informasjonen som skulle til for at noe slikt skulle være mulig er ikke praktisk mulig å få sammen i en softwarepakke, det finnes komplekse modeller som kjører virituelle jordkloder med alle værfenomen (på gigantiske supercomputere som tar ganske mange kvadratmeter med plass), men å pakke inn all fysikk, kjemi, organismer.. Det er alt for mye data for en vanlig pc å håndtere.

Det finnes allerede software som "forsker" på ting, et av de heter BOINC, med dette programmer låner du bort datakraft til forskning.
My av dagens forskning produserer så mye data at forskere ikke har nok datakraft til å analysere alt, med dette programmet kan du bidra å analysere dataen og sende resultatene tilbake til forskerne.

Klart deltar man kanskje ikke aktivt, man trenger ingen kunnskaper om prosjektet man bidrar til, man kan f.eks hjelpe å høre etter "små grønne menn" ved å hjelpe SETI@home prosjektet, eller se etter mulige måter diverse proteiner kan foldes for å hjelpe medisinsk forskning bl.a.
Trådstarter
16 0
Hehe, minecraft ble brukt, da jeg anntar alle kjenner til plattformen :P

Tenker også mer iht kvantedatamaskiner enn tradisjonelle computere (for motor og server).

Men konseptet virtuell lab.. er ikke det på tide å tenke i de baner i 2014, så vi kan bli kvitt religiøse/kulturelle tabu, dyrerettigheter etc iht forskning?
Sist endret av keejason; 6. juni 2014 kl. 13:11.
ओम नमो नारायण
Dodecha's Avatar
DonorCrew
Alle kjenner nok plattformen, men det er fremdeles en utrolig elendig plattform for denne typen programvare.

Vi har ikke i nærheten av nok datakraft enda, kvantedatamaskiner er fremdeles et område som er veldig langt unna et ferdig produkt. Den andre delen av problemet som er minst like stor om ikke større er selve programmeringen av et slikt system. For å sammenligne, Illustris, softwaren som vi så i alle aviser ikke lenge siden, viste en timelapse video over universets evolusjon på noen få minutter. Dette er en svært forenklet modell, den har langt fra alle faktorer med i beregningen alikevell tok det 3 måneder å produsere denne videoen på grunn av den fantastisk store mengden data som må håndteres i beregningene. Og så til hardwaren, en kilde nevner
It had to be spread out over many supercomputers and 8,000 processors, all working in parallel with each other. Researchers said that if such a program were to run on an average home computer or laptop, it would take over two thousand years to complete the simulation.
Vis hele sitatet...
.
Dette burde gi en liten ide over hvor langt unna vi er i dag.

Joda, ideen er helt klart forlokkende og interessant og som du sier i flere områder ville det være veldig nyttig, som i etiske gråsoner. F,eks forskning på mennesker, mye av dataene vi fremdeles bruker i dag er informasjon som kom fra dødsleirene til tyskerne og japanerne under andre verdenskrig siden de ga en lang faen i menneskeetikk. Dataene de samlet derimot er verdifull for medisinsk forkning.
Trådstarter
16 0
8000 CPU's og flere supercomputere.. det er nå ikke all verden nødvendigvis.. så nei, heller tvert om.. når en vanlig forbruker kan få 16 i en pakke, ja da ser jeg ingen problemer med globalt å sette sammen mange tusen, og jeg skjønner ikke at det skal være nødvendig med flere supercomputere, men ser heller for meg en slags nettverksprogrammerings-struktur for å kunne bruke all CPU (nesten) samtidig...og med tanke på utviklingshastigheten i dag, ser jeg da ingen grunn til å la disse tall si noe annet enn at da er det på høy tid å tenke tanken og starte å utvikle den, for teknologien må historisk sett være rett rundt hjørnet om progresjonen forsetter i samme tempo.. Ja, det er nesten så jeg føler vi bare kan begynne å bygge

Man må nå begynne et sted, og da falt det meg bare naturlig med DNA. Men om det ikke er kapasitet til det, får man starte med noe enklere. Man får samle så mye vi kan lagre, og så får vi bruke så mye av det i slengen, som dagens teknologi tilsier.. så utvider vi etterhvert..

Du trenger ikke et ferdig produkt for å bygge en plattform.. man trenger bare en stabil funksjon som sammen med qubits skaper en logikk. Det er allerede tilgjengelig, dog vi ikke forstår alle resultater vi får og det er prøving og feiling. Uansett vil det være mulig å bygge den plattformen kontinuerlig med å bygge en kvantemaskin (altså at både hardware og software bygges samtidig og til et og kun et formål..). Da skulle det nesten med det vi i dag nesten være mulig å gjøre det vi snakker om.. dog bare neseten.. men at det er laaangt unna, tror jeg ikke jeg kan si meg enig i :P
Trigonoceps occipita
vidarlo's Avatar
Donor
Sitat av keejason Vis innlegg
8000 CPU's og flere supercomputere.. det er nå ikke all verden nødvendigvis.. så nei, heller tvert om.. når en vanlig forbruker kan få 16 i en pakke, ja da ser jeg ingen problemer med globalt å sette sammen mange tusen, og jeg skjønner ikke at det skal være nødvendig med flere supercomputere, men ser heller for meg en slags nettverksprogrammerings-struktur for å kunne bruke all CPU (nesten) samtidig...
Vis hele sitatet...
Enkelte oppgaver er enkle å paralellisere. T.d. knekke RSA-nøkler, eller proteinfolding, fordi datamengda er liten, og ei oppgave er atomisk - den er uavhengig av alle andre oppgaver. Andre typer oppgaver krev massiv minnebåndbredde og massive mengder minne. Det er verre å distribuere, sidan distribuerte opplegg ala folding@home har ekstremt høg latency og ekstremt låg bandbredde mellom nodane.

Dessutan tar du feil når du antar at forskning ikkje vert utført på software, og at det ikkje vert nytta distribuerte opplegg. Folding@home er proteinfoldingsimuleringer, og du kan laste ned klienten og delta. Andre døme er at USA har gått over til å simulere atomvåpena sine, og det finst garantert mange fleire. Om du les t.d. tu.no og slashdot.org får du med deg minst eit simuleringsprosjekt i uka tipper eg.