Hét vraag- en antwoordplatform van Nederland

Wat is het verschil tussen byte en int?

Verwijderde gebruiker
5 jaar geleden
4.7K
LeonardN
5 jaar geleden
Bedoel je integer? https://nl.wikipedia.org/wiki/Integer_(informatica)
Verwijderde gebruiker
5 jaar geleden
Ik bedoel integer ja
TurfGraver
5 jaar geleden
Byte is 8 bits.
Integer 32 bits.
TurfGraver
5 jaar geleden
Integer is 4 bytes.
https://qph.fs.quoracdn.net/main-qimg-4e7b7d58838fdd362e0b96fdb1464d91.webp
LeonardN
5 jaar geleden
@Turfgraver Wat je nu zegt is in een specifieke context.
Dus als je in C(#/++) "int" gebruikt is het in de meeste gevallen inderdaad een 32 bit integer, echter 16 kan ook.
https://nl.wikipedia.org/wiki/Integer_(informatica)#Integers_in_C
https://en.wikipedia.org/wiki/Integer_(computer_science)#Common_integral_data_types Maar zeggen "Integer (is) 32 bits" lijkt me uit de context gehaald.
(In de C programmeertalen) int=32 bits (zal vandaag de dag neem ik aan, de facto kloppen)
Een integer kan allerlei bitwaardes en dus bytewaardes hebben. 16,32,64,128 @jaccokosten
Ben je in een C-taal bezig? En bedoel je specifiek de daar gebruikte term "int" ?
TurfGraver
5 jaar geleden
Pfff, ok ja er zijn ook 64 bit (of elk ander waarde) integers (signed en unsigned) .

Heb je meer informatie nodig om de vraag te beantwoorden? Reageer dan hier.

Het beste antwoord

Een byte is 8 bits en kan dus 256 verschillende waarden bevatten. Meestal worden hier de gehele getallen van 0 t/m 255 aan toegekend.

Een INT of integer is een geheel getal. Wiskundig kan dat elk geheel getal zíjn, maar in computerland zitten daar technische grenzen aan. In moderne computers is dat vaak maximaal 32 bit, of 64 bit, maar andere waarden komen ook voor.
Een andere factor is het tekenbit . Eén van de bits kan gebruikt worden om aan te geven of het een + of - getal betreft. In een andere configuratie kan afgesproken worden dat er alleen positieve getallen toegestaan zijn. In dat geval wordt het vrijgekomen tekenbit gewoon onderdeel van het getal zelf. Hiermee verdubbeld het bereik aan de zijde van de positieve getallen, ten koste van de negatieve getallen, dus.
(Lees meer...)
LeonardN
5 jaar geleden
"Wiskundig kan dat elk geheel getal zíjn, maar in computerland zitten daar technische grenzen aan. In moderne computers is dat vaak maximaal 32 bit, of 64 bit, maar andere waarden komen ook voor." Waaruit vloeit die grens dan?
Ik dacht altijd dat integerwaardes meer door de taal of code werden vastgesteld, niet zozeer door de computerarchitectuur.
kierkegaard47
5 jaar geleden
^ "standaard" worden integers wel vaak in 32 of 64 bits gerepresenteerd. Natuurlijk is er wel extreem-hoge precisie software die grotere stukken geheugen pakt om een getal te representeren (of zelfs helemaal niet met een een standaardgrootte werkt). In die zin denk ik dus dat je gelijk hebt. Neemt niet weg dat er natuurlijk wel een absolute bovengrens op zit die o.a. bepaald wordt door de totaalhoeveelheid geheugen . Je zult geen computer vinden die een willekeurige (wiskundige) integer in de orde-grootte van een googolplex als computer-integer zal kunnen representeren (of als je dat niet groot genoeg is, een willekeurige wiskundige integer in de ordegrootte van het getal van Graham, bijvoorbeeld).
Ozewiezewozewiezewallakristallix
5 jaar geleden
Het hangt met elkaar samen. Omdat de meeste moderne computers 32 of 64 bit zijn maken compilers, OS'sen en programmeertalen ook vaak gebruik van deze standaard woordlengtes. Dat is makkelijk en efficiënt. Met extra trucjes zijn andere opties ook mogelijk. B.v. door 2 hardwarematige woorden van 32-bit te combineren kan er ook een softwarematig 64-bit woord ontstaan. De genoemde 'technische grenzen' komen dus voort uit zowel de hard- als de software. Daarnaast kunnen voorgeschreven standaarden een rol spelen.

Weet jij het beter..?

Het is niet mogelijk om je eigen vraag te beantwoorden Je mag slechts 1 keer antwoord geven op een vraag Je hebt vandaag al antwoorden gegeven. Morgen mag je opnieuw maximaal antwoorden geven.

0 / 5000
Gekozen afbeelding