mboost-dp1

password til adgang på bestemt side


Gå til bund
Gravatar #1 - buch
16. okt. 2005 13:47
Skal have smækket et password op på en af mine sider, så kun folk med de rette koder kan få adgang til siden.

Vil gerne have lidt hjælp, ved ikke helt hvordan jeg skal ordne det sådan at jeg kan oprette brugere. Det er kun mig der skal kunne oprette brugere.
Gravatar #2 - amokk
16. okt. 2005 13:50
det nemmeste (hvis du vil undgå at rode med databaser osv) er at kalde give et unikt navn til html-fil som du vil have skal være hemmelig, og så lade være med at linke til den nogen steder, men dem der skal bruge siden kende navnet på filen

Det er selvfølgelig ikke det mest sikre i verden men kan bruges så længe det ikke er alt for personlige oplysninger man gemmer...

Ellers er der ingen vej uden om enten af rode med apache-konfiguration eller sætte ASP/PHP scripts op som checker (langt mere kompliceret)
Gravatar #3 - buch
16. okt. 2005 14:01
#2 det er problemet, siden skal være meget nem og hurtig at komme ind på, og det bliver for besværligt hvis folk skal huske på en lang adresse. Oplysningerne er meget private, og kun bestemte må se de oplysninger.

Men samtidig har jeg heller ikke lyst til at rode med asp/php scripts, i det jeg ikke har særlig meget plads på det subdomæne.
Gravatar #4 - amokk
16. okt. 2005 14:02
ehm det skal de jo heller ikke

læg de "hemmelige ting" på http://pokana.homepage.dk/HEMMELIGTNAVN.html

så burde det være til at huske... (og så ændrer du HEMMELIGTNAVN til noget andre ikke kender)
Gravatar #5 - buch
16. okt. 2005 14:07
#4 nej ved godt man kan lave det på den måde, og sådan er det også ligenu, men det er ikke helt sikkert nok.
Gravatar #6 - amokk
16. okt. 2005 14:17
#5 medmindre du kan udføre kode på webserveren eller ændre i apache konfigurationen kan du ikke gøre det anderledes...
Gravatar #7 - buch
16. okt. 2005 14:22
#6 det kan jeg desværre ikke:(

Når jeg får mig nogen penge, regner jeg med at købe et domæne hos et webhotel, og så kan jeg gå i gang med at sætte noget kode på.
Gravatar #8 - The-Lone-Gunman
16. okt. 2005 14:27
#1

Hvilken host har du? Understøtter de PHP eller ASP? Hvis det er en apache server, så kan du indstille det med .htaccess.
Gravatar #9 - buch
16. okt. 2005 14:30
#8 har et subdomæne ved cybercity
Gravatar #10 - The-Lone-Gunman
16. okt. 2005 15:21
Tjah, det er hvertfald en Apache server, så prøv det her:

http://www.webcafe.dk/artikler/apache/htaccesspass...
Gravatar #11 - Simm
16. okt. 2005 16:23
#10: Det er ikke altid at en webhost giver adgang til egen .htaccess-fil, men ja.. det er da den umiddelbart nemmeste måde at gøre det på.
Gravatar #12 - mrmorris
16. okt. 2005 21:16
Du kan benytte PPP (Poor mans passowrd protection). Princippet består i at et brugernavn og adgangskode hashes til en unik (og meget kryptisk) URL. Jeg skrev engang et eksempel i JavaScript som jeg dog ikke længere har, men google kender sikkert mange implementationer!
Gravatar #13 - Klok
17. okt. 2005 07:03
I alle de der eksempler med mærkelige navne på filen, så vil jeg lige gøre opmærksom på at Google indeksere sider, bla. baseret på oplysninger den får fra Toolbaren.

Dvs. hvis en af de legitime brugere har Googles toolbar installeret, så finder Google (og resten af verden) siden før eller siden.
Gravatar #14 - mrmorris
17. okt. 2005 08:12
#13 Ikke hvis du inkluderer en robots fil.
Gravatar #15 - Klok
17. okt. 2005 08:42
Ok, men det beskytter så kun mod Google.
Der findes jo masser af andre ligende tools derude, og ikke alle disse (f.eks. adware/spyware) der er lige gode til at overholde de regler man sætter op i en robots fil.

Min pointe er at den form for "sikkerhed" ikke er sikkerhed, men man kan selvfølgelig altid diskutere hvilket sikkerhedsniveau der er behov for.
Gravatar #16 - mrmorris
17. okt. 2005 09:05
#15 Tjo men hvad er alternativet, hvis man ikke kan placere sin egen .htaccess eller gider rode med server-side scripting?
Gravatar #17 - Klok
17. okt. 2005 13:54
Helt enig.

Nu er Buch jo også informeret, så må han jo selv finde ud af hvor sikker det skal værre.
Gravatar #18 - buch
17. okt. 2005 13:59
#17 ja det er jeg, tak for alt hjælpen :)
Gravatar #19 - warren
30. okt. 2005 10:22
#4
Hvis folk nu ved at der ligger noget hemmeligt på hans server, og det bliver gemt på den måde som du forslår - så findes der et program der kan downloade en hel hjemmeside på en gang, og på den måde kan man bare sidde og kigge efter sider der ligner noget der ikke burde høre til selve hjemmeside.

http://www.tenmax.com/teleport/pro/home.htm

Jeg kan fortælle at jeg selv har prøvet at download andre folks hjemmesider, bare sådan for sjov. Jeg fandt faktisk en hel del oplysninger, og billeder - som webmasteren slet ikke troede andre kunne se, da det ikke hørte med til selve hjemmesiden.
Gravatar #20 - Klok
30. okt. 2005 12:06
#19: Hvis der ikke er nogle links til den hemmelige side, kan sådanne programmer heller ikke hente dem.

Det er jo som sådan blot en spider der løber et site igennem, og gemmer det den finder på din harddisk.
Gravatar #21 - amokk
30. okt. 2005 12:12
#19 impossible - medmindre programmet ved, at der ligger en fil, eller webserveren fortæller det, kan det ik finde den hemmelige fil.

I hvert fald ikke uden at brute force og prøve SAMTLIGE mulige filnavne
Gravatar #22 - warren
31. okt. 2005 16:23
# 20 og 21
Er i nu helt sikker på det ? Jeg har da en gang prøvet at downloade en tilfældigs persons hjemmeside, og her fandt jeg rimlige fortrolige ting og sager.

Nå, men i har jo nok ret, nå i siger det - og måske lå de oplysninger måske bare så langt væk, at jeg aldrig nået at få øje på dem. /../../../../../../../../../../../ o.s.v
Gravatar #23 - amokk
31. okt. 2005 17:35
#22 hvis webserveren understøtter ../../../ osv. så man kan hente filer uden for webscope, har det nok været en gammel IIS4 eller lign.

og JA jeg er helt sikker på, at det ikke er muligt at få oplyst listen af filer, hvis den option er slået fra i webserveren, eller der i øvrigt ligger default-sider i alle mapper.

Kort og godt, så kan du IKKE få at vide hvilke filer der ligger, medmindre du finder et link eller gætter dig frem - tænk hvor nemt det ville være at indeksere hele WWW hvis bare man kunne tage en liste af alle domæner og IP adresser, og gå i gang med at rippe
Gravatar #24 - buch
15. nov. 2005 17:59
min løsning blev:

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN">
<html xmlns="http://www.w3.org/1999/xhtml" xml:lang="da" lang="da">
<head>
<title>log in</title>
</head>
<body>

<script type="text/javascript">
<!-- Start

function CheckPassword() {
var username=document.login.username.value;
var password=document.login.password.value;
location.href = username + password+'.htm';
}

// Slut -->
</script>

<form method="post" action="ingen_javascript.htm"
onsubmit="CheckPassword();return false;" name="login">
<pre>
Username: <input type="text" name="username">
Password: <input type="password" name="password">
</pre>
<input type="submit" value="log på"
onclick="CheckPassword();return false;">
</form>

</body>
</html>


http://pokana.homepage.dk/login.htm
Gravatar #25 - mrmorris
15. nov. 2005 18:18
#24 Men nu kan password og username aflæses direkte i URL'en. Hvis du lige smider en envejs hashingalgoritme på vil det være noget bedre. F.eks. MD5 som er implementeret i JavaScript her.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login