Moja strona główna

kierunkowe

B. Pytania kierunkowe obowiązujące na egzaminie licencjackim

1.     Zmienne losowe o rozkładzie normalnym. Własności i znaczenie

Rozkład normalny, zwany też rozkładem Gaussa, lub krzywą dzwonową, jest jednym z najważniejszych rozkładów prawdopodobieństwa. Odgrywa ważną rolę w statystycznym opisie zagadnień przyrodniczych, przemysłowych, medycznych, socjalnych itp. Przyczyną jest jego popularność w naturze. Jeśli jakaś wielkość jest sumą lub średnią bardzo wielu drobnych losowych czynników, to niezależnie od rozkładu każdego z tych czynników, jej rozkład będzie zbliżony do normalnego.

Zmienna losowa ma rozkład normalny o parametrach µ, σ (N(µ, σ)), gdzie , jeżeli jej gęstość prawdopodobieństwa jest określona wzorem:

µ to parametr przesunięcia, a σ skali tego rozkładu.

Wykresem gęstości rozkładu normalnego jest tzw. krzywa Gaussa.

Własności rozkładu normalnego:

-      Jeśli X ~ N(µ, σ) oraz a i b są liczbami rzeczywistymi, to aX + b ~ N(aμ + b, aσ),

-      Jeśli X1 ~ N(μ1, σ1) i X2 ~ N(μ2, σ2) oraz  X1 i X2niezależne, to X1 + X2 ma rozkład N(μ12, σ12),

-      Jeśli X1, ..., Xn są niezależnymi zmiennymi losowymi o standardowym rozkładzie normalnym, to X12 + ... + Xn2 ma rozkład chi-kwadrat z n stopniami swobody.

Zmienna losowa n-wymiarowa (X1, ... , Xn) ma n-wymiarowy rozkład normalny, jeżeli jej gęstość określona jest wzorem:

Jeśli składowe wektora losowego  o wielowymiarowym rozkładzie normalnym są nieskorelowane to są niezależne i każda z nich podlega rozkładowi normalnemu N(µii).

 

2.     Prawa wielkich liczb i centralne twierdzenia graniczne

Prawa wielkich liczb dotyczą sytuacji, w której granicą ciągu zmiennych losowych jest zmienna losowa o rozkładzie jednopunktowym. Natomiast centralne twierdzenia graniczne opisują zbieżność do granicy, którą jest zmienna losowa o rozkładzie normalnym.

Istnieją dwie wersje prawa wielkich liczb Bernoullego – słabsza, mówiąca o zbieżności wg prawdopodobieństwa (stochastycznie) oraz silniejsza, opierająca się na zbieżności prawie na pewno (z prawdopodobieństwem 1). Z drugiego wynika pierwsze, dlatego podanie drugiego jest wystarczające.

Twierdzenie o mocnym prawie wielkich liczb Bernoullego:

Jeżeli Sn oznacza liczbę sukcesów w schemacie n prób Bernoullego z prawdopodobieństwem sukcesu w pojedynczej próbie równym p, to  dąży do p prawie na pewno (z prawdopodobieństwem 1). Można to zapisać: .

Mocne prawo wielkich liczb Kołmogorowa – twierdzenie:

Jeżeli  jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie i , to   spełnia mocne prawo wielkich liczb, czyli .

Mocne prawo wielkich liczb ma zastosowanie w weryfikacji przestrzeni probabilistycznej, przez badanie częstości występowania zdarzeń, które w rozważanych modelach mają różne prawdopodobieństwa.

Twierdzenia graniczne dzielimy na lokalne, które dotyczą gęstości lub funkcji prawdopodobieństwa oraz integralne, dotyczące dystrybuant.

Lokalne twierdzenie Moivre’a-Laplace’a

Przy ustalonym  zmieniającym się wraz z n tak, że istnieje granica , zachodzi .

Integralne twierdzenie Moivre’a-Laplace’a:

Jeśli w schemacie Bernoullego  spełniony jest warunek z założenia twierdzenie lokalnego, to .

Centralne twierdzenie graniczne Lindeberga-Levy’ego:

Niech  będzie ciągiem zmiennych losowych:

-      niezależnych,

-      o tym samym rozkładzie,

-      o skończonej wartości średniej ,

-      o skończonej i większej od 0 wariancji ( .

Rozważamy zmienne losowe . Jeśli  jest ciągiem standaryzowanych zmiennych losowych  tzn. , to dla ciągu dystrybuant  zmiennych losowych  i dowolnej liczby rzeczywistej z spełniona jest równość .  oznacza dystrybuantę standardowego rozkładu normalnego.

Twierdzenie to mówi, że ciąg zmiennych losowych  jest zbieżny według dystrybuant do zmiennej losowej o rozkładzie normalnym .

Inne sformułowanie tego twierdzenia:

Jeżeli pobieramy próbę z populacji o średniej  i skończonym odchyleniu standardowym , to rozkład średniej z próby  dąży do rozkładu normalnego o średniej  i odchyleniu standardowym , gdy liczebność próby wzrasta nieograniczenie, czyli dla „dostatecznie dużych n”: .

Twierdzenie to mówi o zmierzaniu rozkładu średniej z próby do rozkładu normalnego niezależnie od rozkładu w populacji, z której próba ta pochodzi.

 

3.     Wzór Bayesa i jego przykładowe zastosowania

Podejście (wnioskowananie) bayesowkie polega na wyciąganiu wniosków odnośnie przyszłych zdarzeń (np. wyznaczaniu ich prawdopodobieństwa) w warunkach braku kompletnej informacji, na podstawie dotychczasowego przebiegu doświadczenia.

Przykładowo mamy w urnie 5 kul, z których każda jest biała lub czarna, losujemy bez zwracania 2 białe kule. Jak obliczyć prawdopodobieństwo tego, że kolejna wyciągnięta kula będzie biała? Podejście bayesowskie polega na potraktowaniu liczby kul (białych lub czarnych) w urnie jako zmiennych losowych. Rozkład tej zmiennej losowej nie jest znany, ale badacz może mieć pewne przypuszczenie jaki on jest. Na początku można przyjąć, że liczba kul białych w urnie jest jednakowo prawdopodobna – określone zostaje w ten sposób rozkład a priori liczby kul białych. Wtedy wylosowanie kuli białej występuje z prawdopodobieństwem 1/6 (bo kul może być od 0-5). Następnie weryfikuje się opinię o liczbie kul białych w urnie posługując się wynikiem przeprowadzonego losowania. Oblicza się prawdopodobieństwo ze wzoru Bayesa, które nazywamy a posteriori liczby kul białych. Po ich wyliczeniu możemy obliczyć prawdopodobieństwo zajścia zdarzenia, że trzecia wylosowana kula jest biała, wykorzystując informację uzyskaną w wyniku dwóch pierwszych losowań.

Wzór Bayesa jest następujący:

 jest przeliczalnym rozbiciem przestrzeni Ω, .

 

4.     Estymacja statystyczna. Estymatory i ich podstawowe własności

Estymacja statystyczna to jedna z form wnioskowania statystycznego. Jest to ocena nieznanych parametrów bądź ich funkcji, które charakteryzują rozkład badanej cechy populacji. Można wyróżnić estymację:

a)       parametryczną – metody znajdowania nieznanych wartości parametrów rozkładu:

-       punktowa – przeprowadzana jest na podstawie próby. Za wartość parametru przyjmuje się wartość estymatora. Estymacja punktowa to także wybór najlepszego estymatora i obliczenie go na podstawie próby. Obliczona wielkość estymatora z próby może różnić się od rzeczywistego. Im większa jest próba tym dokładność obliczenia estymatora jest lepsza,

-       przedziałowa – polega na wyznaczaniu przedziałów ufności dla nieznanych parametrów (bądź ich funkcji) danego rozkładu.

b)       nieparametryczną – to metody znajdowania postaci rozkładu populacji. W praktyce estymacja nieparametryczna jest zastępowana prostszymi metodami bazującymi na weryfikacji hipotez statystycznych.

Estymatorem parametru q nazywamy każdą statystykę , której wartości przyjmujemy jako oceny nieznanego parametru q. Estymator to zmienna losowa.

Własności estymatorów:

a)       nieobciążoność – estymator  jest nieobciążony, gdy dla dowolnej liczebności próby jego wartość oczekiwana jest równa estymowanemu parametrowi ,

b)       zgodność – estymator jest zgodny, gdy jest stochastycznie zbieżny do szacowanego parametru tzn. , gdzie n to liczebność próby,

c)       efektywność – estymator  jest efektywny lun najefektywniejszy, gdy ma on najmniejszą wariancję ze wszystkich nieobciążonych estymatorów parametru ,

d)       dostateczność – estymator jest dostateczny, gdy zawiera wszystkie możliwe informacje na temat parametru , jakie można powiedzieć na podstawie próby i żaden inny estymator nie może dać dodatkowych informacji o szacowanym parametrze.

 

5.     Statystyka z próby. Rozkład średniej arytmetycznej z próby

Statystyka z próby to zmienna losowa będąca funkcją łącznej, obserwowanej zmiennej losowej . Inaczej można powiedzieć, że jest to liczbowa charakterystyka próby.

Rozkład statystyki to rozkład prawdopodobieństwa zmiennej losowej będącej statystyką z próby. Rozkład ten zależy od rozkładu zmiennej . Rozkład statystyki z próby jest rozkładem prawdopodobieństwa wszystkich możliwych wartości, jakie ta statystyka może przyjąć, jeżeli obliczamy je na podstawie badania losowych prób o tych samych rozmiarach, pobranych  z określonej populacji.

Średnia z próby  to zmienna losowa, której możliwe wartości zależą od możliwych wartości poszczególnych wyników obserwacji w próbie losowej, dla której obliczamy . Rozkład wartości zaobserwowanych w próbie zależy z kolei od rozkładu w populacji, z której próba została pobrana. Jako zmienna losowa  ma pewien rozkład prawdopodobieństwa, którym jest rozkład średniej z próby. Rozkład średniej z próby ( ) to rozkład prawdopodobieństwa wszystkich wartości, jakie może przyjąć losowa zmienna , gdy próba o liczebności n jest pobierana z określonej populacji.

Wartość oczekiwana średniej z próby jest równa średniej w populacji ( ), a odchylenie standardowe średniej z próby (standardowy błąd  jest równe odchyleniu standardowemu w populacji podzielonemu przez pierwiastek z liczebności próby ( ).

 

6.     Weryfikacja hipotez statystycznych, klasyfikacja testów, przykłady

Drugą ważną formą wnioskowania statystycznego, obok estymacji, jest weryfikacja, czyli badanie prawdziwości postawionych hipotez statystycznych. Jest to postępowanie, które na postawie danych z próby pozwala z ustalonym prawdopodobieństwem przyjąć lub odrzucić postawioną hipotezę.

Hipoteza statystyczna to pewne przypuszczenie dotyczące nie w pełni znanego rozkładu badanej cechy w badanej populacji. Wyróżnić można hipotezy parametryczne, dotyczące przypuszczeń na podstawie parametrów rozkładu oraz hipotezy nieparametryczne, które dotyczą postaci rozkładu. Występują, dwie hipotezy dopełniające się:

-       hipoteza zerowa H0, czyli postawiona hipoteza, która traktowana jest jako prawdziwą, dopóki nie zostanie odrzucona,

-       hipoteza alternatywna H1, jest hipotezą przeciwną do H0, jesteśmy skłonni ją przyjąć, gdy odrzucamy H0.

Weryfikując daną hipotezę statystyczną na podstawie zaobserwowanych wyników próbki ponosimy zawsze pewne ryzyko podjęcia błędnej decyzji. Możemy więc podjąć poprawną decyzję, albo popełnić jeden z dwóch błędów:

-       pierwszego rzędu – odrzucenie hipotezy gdy jest ona prawdziwa

-       drugiego rzędu – przyjęcie hipotezy weryfikowanej, gdy jest ona fałszywa

Weryfikacja statystyczna przeprowadzana jest na podstawie testów statystycznych. Test statystyczny to reguła postępowania, która każdej możliwej próbie przyporządkowuje decyzję przyjęcia lub odrzucenia hipotezy. Rodzaje testów:

a)       parametryczne – służą do weryfikacji hipotez parametrycznych:

-      testy istotności dla wartości średniej

Przykład: ,  – nieznane,  - znane, liczba dodatnia. H0: . Statystyka testowa: . Hipotezy alternatywne: .

-      testy istotności dla wariancji

-      testy weryfikujące hipotezę o równości wartości przeciętnych badanej cechy dwóch populacji

-      testy weryfikujące hipotezę o równości wariancji dwóch populacji

b)       nieparametryczne:

-      test zgodności – sprawdza się nimi czy cecha w populacji ma określony rozkład (określoną dystrybuantę, czy funkcję gęstości): . Wyróżnia się:

ü  test  Pearsona

ü  test -Kołmogorowa

-      testy weryfikujące hipotezę o identyczności rozkładów badanej cechy dwóch populacji:

ü  test serii – w teście tym rozpoczynamy od uporządkowania obserwacji rosnąco. Następnie obserwacje z pierwszej próby oznaczamy 0, a z drugiej 1. Zliczamy liczbę zer , liczbę jedynek  oraz liczbę serii K. Obszar krytyczny dla tego testu to , wartość odczytujemy z tablic dla testu serii.

ü  test Kołmogorowa-Smirnowa

-      testy niezależności – w teście tym H0 wskazuje na to, że zmienne X i Y są niezależne, a hipoteza alternatywna mówi o ich zależności. Wyróżnić można:

ü  test niezależności

ü  test  Spearmana

 

7.     Etapy konstrukcji modelu ekonometrycznego

Model ekonometryczny – przez model ekonometryczny rozumie się równanie albo układ równań, opisujących powiązania między różnymi zmiennymi opisującymi zjawiska gospodarcze.

1.     Sformułowanie modelu

·       Dobór zmiennych

Zmienna objaśniana Y – określenie celu i zakresu badania

Zmienne objaśniające Xi:

o   Metoda intuicyjnego doboru zmiennych

§  W oparciu o wiedzę na temat badanego zjawiska, dobieramy zmienne objaśniające do modelu szacujemy model ze wszystkimi potencjalnymi zmiennymi objaśniającymi.

§  Jeżeli okaże się, że nie wszystkie zmienne objaśniające są w modelu istotne to należy model zmodyfikować poprzez usunięcie „najbardziej nieistotnej zmiennej”

§  Zmienna nieistotna w modelu to taka dla, której wartość-p jest większa od α (p>α), a wartość (|tk| < tα). Zmienna najbardziej nieistotna to taka:

§  Proces usuwania zmiennych kontynuujemy tak długo dopóki mamy nieistotne zmienne w modelu lub dopóki R2 nie obniży się poniżej dopuszczalnej granicy

§  Jednym z podstawowych elementów wpływających na istotność zmiennych objaśniających modelu jest tzw. Współliniowość tych zmiennych czyli stopień w jakim zmienne te są wzajemnie skorelowane.

·       Im wyższa korelacja pomiędzy zmiennymi objaśniającymi tym wyznacznik macierzy XTX jest bliższy zeru det(XTX) à 0

·       W efekcie w macierzy transponowanej (XTX)-1 pojawiają się bardzo duże elementy i duże są wartości co powoduje duże wartości dk , (XTX)-1 à dk

§  Wniosek z powyższego jest następujący: dobierając zmienne objaśniające do modelu, warto brać pod uwagę stopień skorelowania pomiędzy poszczególnymi zmiennymi, zmienne objaśniające powinnyśmy być możliwie silnie skorelowane z Y, a możliwie słabo pomiędzy sobą

o   Metoda HELLWIGA

§  Dobieramy potencjalne zmienne objaśniające: X1, X2,…, Xk

§  Ustalamy wszystkie możliwe kombinacje zmiennych objaśniających utworzone przez K zmiennych (M= 2K -1)

§  Na podstawie zebranych obserwacji obliczamy dwa rodzaje współczynników korelacji liniowej

·       rk = r(Y, Xk) – współczynnik korelacji danego X z Y

·       rk = r(Xl, Xk) – współczynnik korelacji pomiędzy danymi X

§  dla każdej zmiennej X, kombinacji Km, obliczamy, tzw. Pojemność informacyjną hk(m)(wzoru nie chce mi się przepisywać)

§  dla każdej kombinacji zmiennych (Km) obliczamy integralną (łączną) pojemność informacyjną Hm= suma hk(m)

§  wyszukujemy kombinację optymalną Km*: Hm*=max{Hm}

o   metoda doboru zmiennych objaśniających to tzw. Regresja krokowa, która funkcjonuje w dwóch wersjach w przód i w tył, metoda ta jest oparta na tzw. Cząstkowej statystyce F

·       Ustalenie postaci analitycznej modelu

o   Liniowa

o   Paraboliczna

o   Wielomianowa

o   Hiperboliczna

o   Logarytmiczna

o   Wykładnicza

o   Potęgowa

o   Potęgowo-wykładnicza

o   Wykładniczo-hiperboliczna

o   Tornquista I, II, III

o   Logistyczna

2.     Zebranie materiału statystycznego

3.     Estymacja parametrów modelu

·       Parametrów strukturalnych (bety)- Na podstawie próby dokonujemy estymacji (znalezienia ocen szacunku) parametrów modelu hipotetycznego. Tak powstały model to model ekonometryczny.

·       Parametrów stochastycznych ( s(bi), s(y), R2, R )

4.     Weryfikacja modelu

·       Merytoryczna – wymaga znajomości natury zjawiska – trzeba sprawdzić czy znaki i skala wartości parametrów są sensowne

·       Statystyczna (dla modeli liniowych) dopasowanie: ϕ2, R2, szacunkowy błąd średni βk, istotność zmiennych objaśniających (to ostatnie to raczej wcześniej wg mnie.)

 

·       Testowanie istotności parametrów strukturalnych

·       Badanie dopasowania modelu do rzeczywistości

·       Analiza własności składnika losowego: testowanie normalności, losowości, nieobciążoności, symetryczności, autokorelacji, jednorodności, stacjonarności

5.     Prognoza, ocena prognozy (wykorzystanie modelu), interpretacja modelu

·       Jeśli oszacowany model jest „dobry” to możemy na jego podstawie prognozować

 

8.     Założenia klasycznej normalnej regresji liniowej

1) Zmienna objaśniana jest liniową funkcją nielosowych zmiennych objaśniających i składnika losowego

2) zmienne objaśniające modelu ustalone są w powtarzalnych obserwacjach. Obserwacje te tworzą macierz X, której rząd równa się K

3) składnik losowy modelu tworzy T-wymiarowy wektor , gdzie εt oznacza składnik losowy dla obserwacji o numerze T.

E(εt) = 0 à oznacza, że nie ma żadnych błędów systematycznych w dopasowaniu modelu do obserwacji

Wartość oczekiwana dla każdej obserwacji tego składnika równa się zero (błędy nie są związane ze sobą)

Działanie składnika losowego obserwujemy poprzez reszty modelu.

 

4) Macierz wariancji-kowariancji składnika losowego ma postać: 

 - wariancja składnika losowego i jej wartość nie jest nam znana i musi być oszacowana na podstawie zebranych informacji

5) Składnik losowy ma T-wymiarowy rozkład normalny o zerowym wektorze wartości oczekiwanych i macierzy wariancji-kowariancji opisanej:

przykład:

y – wydatki na czekoladę (miesięcznie na głowę)

X – dochód (miesięcznie na głowę)

 

Gdyby przy ustalonych X nie działał składnik losowy lub przyjmowałby wartość zero, to zmienna objaśniana przyjmowałaby dokładnie wartości z modelu hipotetycznego

Odchylenia realizacji składnika losowego od 0 (wartość oczekiwana) powodują odchylenia obserwacji zmiennej y od wartości wynikających z modelu hipotetycznego, o tym jak duże są te odchylenia informuje wariancja składnika losowego

 

9.     Weryfikacja statystyczna modelu ekonometrycznego

Ocena dobroci dopasowania modelu do obserwacji:

OSK – ogólna suma kwadratów – miara zmienności w obserwacjach Y

RSK – regresyjna – suma kwadratów, mierzy zmienność wartości teoretycznej zmiennej Y

SKR – suma kwadratów reszt

OSK = RSK + SKR

 

R2 – współczynnik determinacji

·       RSK/OSK

·       Możliwie bliski jeden

·       Należy do przedziału <0,1>

·       Informuje jaką część zmienności y w obserwacjach została wyjaśniona przez zmienne objaśniające występujące w modelu

·       Współczynnik R2 ma tę ważną własność, że każda kolejna zmienna wprowadzana do modelu powoduje obniżenie SKR i zwiększenie wartości R2

·       Własność ta powoduje, że nie można na podstawie wartości R2 porównywać tego samego Y z różną liczbą zmiennych objaśniających w takim przypadku posługiwać się należy tzw. Dopasowanym R2, którego wartość jest skorygowana o liczbę odpowiednich stopni swobody

·       DOBRY MODEL: R2 > 0,9

ϕ2 – współczynnik rozbieżności/indeterminacji

·       Należy do przedziału <0,1>

·       Możliwie bliski zeru

 

Wpływ czynników losowych na Y

·       Wariancję składnika losowego szacujemy w następujący sposób:

·       Ocena odchylenia standardowego składnika losowego wyrażona jest w takich samych jednostkach jak y i oznacza przeciętne odchylenie obserwacji y od wartości wynikających z założonego modelu

·       Aby jednoznacznie ocenić czy składnik losowy silnie wpływa na kształtowanie wartości zmiennej y, musimy wartość s odnieść do obserwacji zmiennej objaśnianej/

·       W tym celu obliczamy tzw. Współczynnik zmienności losowej y:

·       Uznawać będziemy, że składnik losowy w niewielkim stopniu wpływa na wartości y, jeżeli Vy nie przekroczy 10%: Vy <= 10%

·       Jednak miara ta nie jest dla każdego modelu stosowalna

·       s – informuje o ile rzeczywista wartość odchyla się średnio od wartości z założonego modelu

·       Vy, możemy używać gdy nie ma obserwacji ujemnych!

 

Istotność zmiennych objaśniających

·       Zmienne nieistotne w modelu to takie, przy których stoi parametr, który statystycznie nieistotnie różni się od zera

·       Podstawą do oceny istotności zmiennej jest precyzja z jaką oszacowany został odpowiedni parametr

·       Z losowego charakteru zmiennej y wynika, że realizacjami zmiennej losowej są również oceny paramaterów modelu uzyskiwane dla konkretnej próby, zapisać możemy:

 - estymator parametru modelu

·       Estymator to zmienna losowa, której realizacje traktowane są jako oceny nieznanych parametrów, estymator jak każda zmienna losowa charakteryzuje się pewną wartością oczekiwaną i wariancją, E(B) = β – estymator nieobciążony

·       ckk – wariancje estymatorów, a pierwiastki z tych liczb to szacunkowe błędy średnie odpowiednich parametrów

·       dk –to odchylenie standardowe estymatora parametru Bk popularnie nazywane jego szacunkowym błędem średnim: dk = s* sqrt(ckk) – o ile odchyla się rzeczywista wartość w porównaniu do założonego modelu

·       podstawą do oceny precyzji z jaką oszacowany został dany parametr będzie iloraz bk przez błąd: bk/dk – opieramy się na wartości absolutnej, im większa ta wartość tym bardziej precyzyjna, ten iloraz wykorzystywany jest Orzy weryfikacji hipotez dotyczących istotnych zmiennych objaśniających

·       hipotezy (test t-Studenta), czy wpadają w obszary krytyczne, wnioskując na podstawie tego czy zmienne objaśniające faktycznie istotnie wpływają na zmianę wartości Y

 

10.  Indeksy ekonomiczne – zasady tworzenia i zastosowania

Metoda indeksowa

Polega na tym, że opisujemy rozwój zjawiska w czasie za pomocą wskaźników, inaczej indeksów, dynamiki. W metodzie tej zawsze brane są pod uwagę tylko dwa okresy z szeregu dynamicznego.

W zależności od tego, czy porównanie dotyczy stałego bądź zmiennego punktu odniesienia, mówimy o:

a) wskaźnikach o podstawie stałej,

b) wskaźnikach o podstawie zmiennej.

 

Podział w zależności od tego, jakie zjawiska są przedmiotem badania dynamiki:

§  Indeksy indywidualne

o   Mają ZASTOSOWANIE wtedy, kiedy przedmiotem analizy są zjawiska, które z punktu widzenia celu badania traktowane są jako pewna jednolita całość. Zjawiska te występują wtedy w postaci pojedynczych szeregów czasowych.

o   Szeregiem czasowym nazywamy ciąg wielkości statystycznych uporządkowanych wg kryterium następstwa czasowego.

o   Jeśli wielkości statystyczne ujęte w szeregu czasowym dotyczą zjawisk ekonomicznych, mówimy o tzw. ekonomicznym szeregu czasowym.

o   Iloraz poziomu cech w okresie badanym i w okresie podstawowym

o   Wielkość niemianowana, informują jaki procent poziomu cechy z okresu podstawowego stanowi poziom cechy w okresie badanym

 

o   Wyróżnia się:

§  Jednopodstawowe: Indeksy te powiązane są ściśle z jednopodstawowym przyrostem względnym. Indeksy jednopodstawowe dają nam odpowiedź na dwa pytania:

1.     O ile % poziom zjawiska w okresie t wzrósł bądź spadł w stosunku do okresu podstawowego ( bazowego)?

2.     Jaki jest trend rozwojowy zjawiska w analizowanym przedziale czasowym?

 

§  Łańcuchowe:

indeks łańcuchowy jest sumą jedności i łańcuchowego przyrostu względnego.

Indeks łańcuchowy pozwala nam znaleźć odpowiedź na następujące pytania:

1.     O ile % wzrósł bądź spadł poziom zjawiska w okresie badanym t w stosunku do okresu t-1?

2.     W jakim tempie z okresu na okres rozwijało się zjawisko w analizowanym przedziale czasowym?

 

§  Indeksy agregatowe

o   Do opisania dynamiki nie jednego, lecz całej grupy zjawisk niejednorodnych, wyrażonych w różnych jednostkach miary

o   W takiej sytuacji porównania dokonuje się za pomocą indeksów agregatowych, wykorzystując trzy wielkości ekonomiczne:

§  Cenę – p

§  Ilość – q

§  Wartość – q = p*q

o   Opis indeksów agregatowych odnoszących się do zespołu zjawisk należy rozpocząć od zdefiniowania odpowiednich indeksów indywidualnych:

§  indeks cen

§  indeks ilości

§  indeks wartości

Informują one o zmianie procentowej (wzroście lub spadku) jaka nastąpiła w okresie badanym (1) w porównaniu z okresem podstawowym (0). Wykorzystywane są one w analizie zmian w ramach każdego pojedynczego zjawiska wchodzącego w skład zespołu.

Zachodzi pomiędzy nimi zależność: iw = ip* iq

 

11.  Podstawowe kroki algorytmu genetycznego i ich charakterystyka

1.     wyznacz losowo N-elementową populację rozwiązań. Wyznacz dla każdego z nich wartość funkcji przystosowania. Zapamiętaj najlepsze z nich. Przejdz do kroku 3

2.     jeżeli spełniony jest warunek stopu, STOP. Najlepsze zapamiętane rozwiązanie jest szukanym rozwiązaniem problemu. W przeciwnym razie przejdź do kroku 3

3.     wyznacz dla każdego rozwiązania wartość funkcji przystosowania. Jeżeli któreś z rozwiązań jest lepsze od najlepszego zapamiętanego, zapamiętaj je jako najlepsze

4.     wylosuj N/2 par rozwiązań (tworzących pule rodzicielską), przy czym prawdopodobieństwa wylosowania poszczególnych rozwiązań są proporcjonalne do wartości ich funkcji przystosowania.

5.     Zadziałaj na wylosowane pary operatorem krzyżowym, tworząc w ten sposób pokolenie potomne

6.     Zadziałaj na pokolenie potomne operatorem mutacji i wróć do kroku 2

12.  Analiza wrażliwości w programowaniu liniowym

Problem programowania liniowego w postaci standardowej:

znajdź min cTx

przy ograniczeniach:

Ax = b

x >= 0

gdzie:

c - wektor wierszowy współczynników f. celu

A - macierz współczynników ograniczeń

x - wektor zmiennych

b - wektor wyrazów wolnych

 

Sprowadzenie problemu PL do postaci standardowej (wybrane 2 reguły z pięciu):

- ograniczenie postaci Ax <= b -> uzupełnienie lewej strony zmienną y: Ax + y = b, y >= 0

- ogranicznie postaci Ax >= b -> odjęcie od lewej strony zm. nadwyżkowej y: Ax - y = b, y >= 0

 

Zmienne dualne w rozwiązaniu optymalnym interpretuje się jako ceny dualne: o ile jednostek zmieni się wartość f. celu, jeśli zwiększymy współrzędną prawej strony (b) o jednostkę

 

Analiza wrażliwości polega na określeniu zakresu zmian parametrów zadania (macierzy A, wektorów b, c), w którym w optimum utrzymany zostaje ten sam zbiór zmiennych bazowych. Analiza wrażliwości pozwala rozstrzygnąć czy i jak zmieni się aktualne rozwiązanie zadania, jeśli będziemy „manipulować” jego parametrami. Dzięki analizie wrażliwości można

ocenić jak dalece otrzymane rozwiązanie jest „odporne” na niedokładność pomiaru wartości parametrów (są szacowane przy użyciu metod statystycznych).

 

13.  Elektroniczna gospodarka

Elektroniczna gospodarka (ang. digital economy) — wykorzystywanie technologii informatycznych i elektronicznego przepływu danych w procesach gospodarki rynkowej do realizacji dowolnej transakcji dotyczącej gospodarki (stąd niekiedy określenie e-gospodarka). Systemowe i zintegrowane rozwiązania przepływu strumieni gospodarczych: materiałowego, informacyjnego i finansowego, składających się na podstawową wykładnię logistyki, stanowią podstawową płaszczyznę realizacji elektronicznej gospodarki. E-gospodarka stała się kluczowym elementem cywilizacji informatycznej i warunkuje również globalizację gospodarki. Uważana jest za najbardziej perspektywiczną koncepcję rozwoju gospodarczego, zwiększenia konkurencyjności i innowacyjności gospodarki. Wpływa ona w zasadniczy sposób na warunki życia, pracy i nauki. Prowadzi do powstawania nowych rynków zaopatrzenia, kooperacji i sprzedaży dóbr, zmieniając w ten sposób strukturę i funkcjonowanie całej gospodarki. Przyczynia się do tworzenia zupełnie nowych usług informatycznych, a także powstawania nowych metod pracy i handlu, a tym samym do tworzenia nowych miejsc pracy.

Początki handlu elektronicznego sięgają lat 60., gdy duże międzynarodowe firmy rozpoczęły tworzenie firmowych sieci informatycznych służących wymianie informacji z partnerami handlowymi czy siedzibami koncernów w poszczególnych krajach. Jednak jego rozwój na masową skalę był dopiero możliwy dzięki popularyzacji Internetu w latach 90.

W dobie społeczeństwa informacyjnego, w której informacja jest traktowana jako szczególne dobro niematerialne, cenniejsze niejednokrotnie od dóbr materialnych, e-gospodarka udostępnia niezastąpione narzędzia analityczne wspomagające procesy decyzyjne w przedsiębiorstwie.

 

14.  Produkt cyfrowy i usługa cyfrowa=

Informacja zapisana cyfrowo będąca przedmiotem działalności gospodarczej.=

 

 

 

 Rodzaje:

  • ·       dokument
  • ·       pieniądz
  • oprogramowanie
  • ·       utwór autorski

 

·       Pismo (dokumenty, gazety, rejestry, formularze)

·       Głos (muzyka, radio, telefon)

·       Obraz (zdjęcia, radio, TV)

·       Oprogramowanie (narzędziowe, użytkowe, gry)

·       Multimedia

 

Produkt: np. załadowanie pliku na stałe – posiadać informację

Usługa: np. załadowanie pliku na czas dostępu – mieć dostęp do informacji

 

Produkty cyfrowe mogą być (samodzielność):

·       Końcowe, np. utwory rozrywkowe

·       Towarzyszące innym produktom i usługom, np. dokumenty

 

Cechy produktu cyfrowego:

·       Niezniszczalność –

o   Z upływem czasy produkt cyfrowy nie traci ani formy ani jakości

o   Zaoferowany na rynku pierwotnym jest równoważny temu produktowi na rynku wtórnym

o   Konkurencja producenta z własnym produktem na rynku wtórnym

o   Obrona producentów przed niezniszczalnością:

§  Częste uaktualnianie produktu:

·       Zwiększanie funkcjonalności

·       Ulepszanie interfejsów (koszty kształcenia użytkownika)

§  Licencjonowanie

·       Wynajem bez prawa sprzedaży

·       Wynajem na określony czas

·       Transformowalność

o   Zmiany przypadkowe, zamierzone i oszukańcze

o   Dostosowywanie produktu do potrzeb konkretnego użytkownika

§  Narzędzia

§  Rozwiązania

o   Obrona:

§  Ochrona prawna (warunki licencji, patenty, prawa autorskie)

§  Sprzedaż wersji binarnych, a nie źródłowych (niebezpieczeństwo – reverse-engineering)

§  Sprzedaż usług interaktywnych zamiast produktów cyfrowych

·       Replikowalność

o   Stały koszt wytworzenia produktu

o   Prawie zerowy koszt marginalny powielania produktu cyfrowego

o   Obrona:

§  Ochrona prawna (warunki licencji, patenty, prawa autorskie)

§  Cyfrowe znaki wodne

§  Związanie oprogramowania z konkretnym komputerem

§  Sprzedaż usług interaktywnych zamiast produktów cyfrowych

·       Zależność od indywidualnych preferencji

o   Indywidualizacja produktu w zależności od preferencji klienta

o   Zróżnicowanie ceny zależne od typu klienta

o   Cena zależna raczej od zgody klienta niż kosztów produkcji

·       Zależność wartości produktu od czasu

o   Prognoza pogody

o   Program telewizyjny

o   Wiadomości dotyczące spółek giełdowych

·       Kumulatywna wartość informacji stanowiącej produkt cyfrowy

o   Przykład – archiwum do zastosowań analitycznych

o   Informacja stanowiąca jeden produkt cyfrowy może być użyta do wyprodukowania innego produktu

·       Korzyści zewnętrzne – ekonomiczne konsekwencje, które nie są uwzględnione w cenie produktu:

o   Konsekwencje pozytywne (cień drzewa sąsiada)

o   Konsekwencje negatywne (zatrucie środowiska przez samochody)

o   Sieciowe korzyści zewnętrzne:

§  Zależność konsekwencji od liczby użytkowników

§  Przykład telefonu jako pozytywnej korzyści zewnętrznej

§  Przykład zatłoczenia jako negatywnej korzyści zewnętrznej

o   Korzyści zewnętrzne produktów cyfrowych:

§  Pozytywne – programowanie

§  Negatywne – informacja o spółce giełdowej

§  Sieciowe – poczta elektroniczna, nowiny, system operacyjny

o   Zysk ze sprzedaży produktu cyfrowego zależy od korzyści zewnętrznych

§  Problem ochrony (określenia) praw autorskich w przypadku sieciowych korzyści zewnętrznych

§  Problem wyceny produktów cyfrowych o negatywnych korzyściach zewnętrznych – gwarancja ograniczonej sprzedaży

Korzyści dla producenta ze świadczenia usług zamiast handlu produktami:

·       Większe możliwości obrony producenta przed replikowaniem i transformowaniem produktu

·       Cena zależna od używania produktu

·       Możliwości różnicowania cen w zależności od klienta, czasu użycia, realizowanych funkcji itp.

·       Możliwość powiązania usługi z marketingiem, promocją i badaniem rynku

 

15.  Modele elektronicznego biznesu

Model biznesowy jest opisem metody prowadzenia działalności gospodarczej, dzięki której przedsiębiorstwo trwa na rynku, czyli przynosi zyski

Modele funkcjonalne e-biznesu:

·       Broker

Brokerzy doprowadzają do spotkania kupującego ze sprzedającym, umożliwiając

im dokonanie transakcji

o   Model brokerski dotyczy e–biznesu: B2B, B2C i C2C

o   Honorarium brokera jest najczęściej procent od wartości transakcji

·       Promocja

Model promocyjny polega na oferowaniu najczęściej darmowych usług (np. poczta elektroniczna) i/lub produktów (np. gry) w zamian za możliwość przedstawiania klientowi materiałów promocyjnych

o   Honorarium jest zapłata za reklamę, która może być uzależniona od liczby odsłon

·       Pośrednictwo informacyjne

Model pośrednictwa informacyjnego polega na oferowaniu klientom najczęściej

darmowych usług (np. dostęp do Internetu) i/lub produktów (np. komputery) za

informacje o ich zainteresowaniach i zachowaniach w Internecie

o   Honorarium jest zapłata za informacje o klientach i ich profilach

 

Model pośrednictwa informacyjnego może również funkcjonować w drugą stronę – wówczas polega na oferowaniu konsumentom informacji o konkurencyjnych względem siebie produktach i usługach w Internecie

o   Honorarium jest zapłata za informacje o produktach i usługach

·       Sprzedawca

Klasyczny handlowiec – hurtowy lub detaliczny – produktów lub usług materialnych lub cyfrowych

Sprzedaż:

·       Na podstawie katalogu z cenami

·       Przez aukcje

·       Producent

Model producenta polega na wykorzystaniu sieci przez producenta danego produktu w celu dotarcia do jak największej liczby końcowych odbiorców bezpośrednio czyli przy wyeliminowaniu pośredników – hurtowników i detalistów

Korzyści dla producenta:

§  Zmniejszenie kosztów (zwiększenie zysku lub segmentu rynku dzięki obniżce ceny)

§  Poprawa obsługi klientów końcowych

§  Krótszy czas reakcji na zmiany preferencji klientów końcowych

§  Skrócenie czasu dostaw – szczególnie znaczenie dla produktów łatwo psujących się (np. cięte kwiaty)

Potencjalny konflikt kanałów dystrybucji

·       Stowarzyszony

o   W modelu przedsiębiorstwa stowarzyszonego odwołania do punktu sprzedaży (banery) są rozmieszczone na witrynach wielu przedsiębiorstw stowarzyszonych ze sprzedawcą

o   Przedsiębiorstwo stowarzyszone otrzymuje procent od sprzedaży, która wzięła początek na jego witrynie

o   Sprzedawca nie ponosi żadnych kosztów, jeśli przedsiębiorstwo stowarzyszone nie zdobędzie klienta

o   Ograniczenie – patent na taki model biznesowy będący własnością Amazon.com

·       Wspólnota

o   Model wspólnotowy opiera się na lojalności swoich klientów, a nie na dużym ruchu

o   W wielu przypadkach, klienci zainwestowali dużo czasu i ewentualnie pieniędzy w zbudowanie witryny wspólnoty, często regularnie przyczyniają się do jej rozwoju

o   Szczególna forma – sieci tematyczne – dzielenie się wiedzą

o   Witryna może utrzymywać się:

§  Z dotacji (państwowych, od sponsorów, od klientów)

§  Z abonamentu z zamian za usługi

§  Z reklam (szczególnie atrakcyjny fakt – stali klienci)

§  Ze sprzedaży profilu klientów

·       Abonament

o   Model abonenci polega na odpłatności za oglądane treści witryny

o   Kluczowa dla powodzenia tego modelu jest wysokiej jakości treść

o   Model ten może łączyć w sobie treści mniej interesujące dostępne za darmo i wysoko interesujące dostępne po opłaceniu abonamentu

·       Użyteczność

o   Model użytkowania polega na opłacie proporcjonalnej do stopnia użytkowania witryny (czas, liczba odsłon poszczególnych stron itp.)

o   Jedną z form zapłaty są mikropłatności

 

16.  Architektury oprogramowania w sieci Internet

Internet korzysta ze styli architektury oprogramowania:

Klient-serwer

architektura systemu komputerowego, w szczególnościoprogramowania, umożliwiająca podział zadań (ról). Polega to na ustaleniu, że serwer zapewnia usługi dla klientów, zgłaszających do serwera żądania obsługi ((ang.) service request)

Podstawowe, najczęściej spotykane serwery działające w oparciu o architekturę klient-serwer to: serwer poczty elektronicznej,serwer WWW, serwer plików, serwer aplikacji. Z usług jednego serwera może zazwyczaj korzystać wiele klientów. Jedenklient, w ogólności, może korzystać jednocześnie z usług wielu serwerów. Według schematu klient-serwer działa też większość, obecnie spotykanych, systemów zarządzania bazą danych.

W pewnym uproszczeniu, bez wdawania się w techniczne szczegóły realizacji, sposób komunikacji według architektury klient-serwer można scharakteryzować przez określenie zadań (wyznaczenie ról) obu stronom oraz zdefiniowanie ich trybów pracy.[2]

Strona klienta

Jest to strona żądająca dostępu do danej usługi lub zasobu.

Tryb pracy klienta:

aktywny,

wysyła żądanie do serwera,

oczekuje na odpowiedź od serwera.

Strona serwera

Jest to strona świadcząca usługę lub udostępniająca zasoby.

Tryb pracy serwera:

pasywny,

czeka na żądania od klientów,

w momencie otrzymania żądania, przetwarza je, a następnie wysyła odpowiedź.

 

Peer-to-peer

W sieciach P2P każdy węzeł sieci zwany hostem, czyli komputer użytkownika, może jednocześnie pełnić rolę klienta iserwera. W najpopularniejszej implementacji modelu P2P, jaką są programy do wymiany plików w Internecie, każdy host spełnia rolę serwera, przyjmując połączenia od innych użytkowników sieci, oraz klienta, łącząc się i wysyłając i/lub pobierając pliki z innych hostów działających w tej samej sieci P2P. Wymiana plików jest prowadzona bezpośrednio pomiędzy hostami. Sieć P2P charakteryzuje się zmiennością struktury węzłów sieci, spowodowaną zmiennością liczby i lokalizacji sieciowej aktualnie aktywnych hostów.

Np. Skype, Torrent, IRC

 

17.   Architektura systemów informacyjnych zarządzania

Podczas gdy główne znaczenie słowa „architektura” dotyczy środowiska budowy, przez rozszerzenie terminu oznacza sztukę i dyscyplinę tworzenia aktualnego planu każdego kompleksu lub systemu.

Architektura oprogramowania programu lub systemu komputerowego to systemu, na którą składają się komponenty programistyczne, widoczne z zewnątrz właściwości tych komponentów oraz występujące między nimi zależności.

[Bass 1988]

Każda architektura to projekt, ale nie każdy projekt to architektura

Architektura skupia się na istotnych decyzjach projektowych, ważnych ze względu na strukturę i zachowanie się systemu, a także jego parametry jakościowe

Architektura to nie tylko „co”, ale także „jak” i „dlaczego”

Architektura to nie infrastruktura ani technologia.

Infrastruktura jest integralną i istotną częścią architektury, ale architektura to więcej niż tylko infrastruktura.

 

Technologia wpływa na architekturę, ale elastyczna architektura nigdy nie powinna być ściśle związana z określoną technologią.

 

Architekturę można oceniać!

Architekturę tworzy się dla wizualizacji, specyfikacji, konstrukcji, dokumentacji i wnioskowania o systemie

Architektura systemu może być wykorzystana do:

–Zarządzania ryzykiem projektu

–Zapewnienia zrozumienia osób zaangażowanych w celu dyskusji nad istotnymi decyzjami

–Przyspieszenia testowania systemu, ewaluacji

–Zdefiniowania oczekiwań odnośnie systemu

 

Czym jest architektura?

Architektura to fundamentalna organizacja systemu, jego komponentów i ich relacji w stosunku do siebie i środowiska projektu, a także zbiór zasad zarządzających ich projektowaniem i ewaluacją. (IEEE 1471-2000)

–Architektura zawiera zespół istotnych decyzji projektowych dotyczących organizacji systemu.

–Dotyczy wyboru elementów strukturalnych i ich interfejsów, a także ich kompozycji w większe podsystemy

–Odnosi się do stylu architektonicznego, który przyjęła organizacja.

Decyzje architektoniczne są decyzjami fundamentalnymi, każda ich zmiana powoduje efekt domina w systemie…

 

Jak patrzeć na architekturę?

·       Model to uproszczenie rzeczywistości stworzone w celu zrozumienia tworzonego systemu; jego abstrakcja.

·       Reprezentacja systemu z perspektywy określonej grupy interesów.

·       Interesy są jedną z pobudek tworzenia systemu, jego funkcjonowania lub innych aspektów związanych z osobami zaangażowanymi.

·       Zaangażowany to osoba, grupa osób, organizacja związana z funkcjonowaniem systemu

Projektowanie

Projektowanie architektury to proces opisu systemu w wymiarze jego modułów, zajmujący się identyfikacją takich modułów oraz przyporządkowywaniem konkretnych wyborów technologicznych.

Składa się z:

– organizacji obiektów w logicznie spójne moduły oraz zarządzanie zależnościami pomiędzy nimi (logiczna architektura)

–Identyfikacji i wyboru konkretnych technologii wspierających rozwiązanie oraz ich rozłożenie (fizyczna architektura)

Wzorce projektowe

Wzorce projektowe stosowane w architekturze to znane rozwiązania znanych problemów skodyfikowane na podstawie doświadczenia z dziedziny. Istnieją zbiory wzorców, np. GRASP, GoF.

Struktury architektoniczne

Struktury architektoniczne pomagają w ponownym użyciu modeli, w przeciwieństwie do ponownego użycia kodu. Są rozwiązaniami ogólnymi, wymagają szczegółowej specyfikacji.

Przykład:          MVC – Model-View-Controller              

 

18.  Cykl życia i rozwoju systemu informacyjnego

Cykl życia systemu informacyjnego – ciągły proces, wzorowany na cyklu życia organizmy złożony z sekwencji wzajemnie spójnych, powiązanych ze sobą logicznie i logistycznie etapów umożliwiających stworzenie, wdrożenie i użytkowanie systemów informacyjnych wspomagających zarządzanie.

Okres od powstania potrzeby do wprowadzenia systemu aż do jego wycofania z eksploatacji.

Etapy życia oprogramowania:

o   Planowanie, określenie wymagań

o   Strategia biznesowa przedsiębiorstwa – punkt wyjścia dla stworzenia systemu informacyjnego

o   Identyfikacja problemów, potrzeb i wymagań użytkowników

o   Studia wykonalności

o   Określenie architektury systemu

o   Sporządzenie planu projektu ( tworzenie harmonogramu projektu)

o   Wykonalność organizacyjna – wspomaganie przez proponowany system celów przedsiębiorstwa

o   Wykonalność ekonomiczna – możliwości finansowe w zakresie kosztu wytworzenia, okresu ponoszenia nakładów

o   Wykonalność techniczna – możliwości, wiarygodności, dostępność w zakresie sprzętu, programowania, rozwiązań sieciowych

o   Wykonalność operacyjna  - akceptacja przez użytkowników, klientów

o   Analiza

o   Planowanie systemu – spojrzenia na całe przedsiębiorstwo, analiza – spojrzenie na dziedzinę wybraną do informatyzacji

o   Szczegółowa analiza potrzeb informacyjnych przedsiębiorstwa i użytkowników systemu (analiza organizacyjna)

o   Analiza czynności, zasobów i produktów obecnie użytkowanych systemów informatycznych użytkowanych przez przedsiębiorstwo

o   Ustalenie wymagań funkcjonalnych w celu zaspokojenia potrzeb informacyjnych użytkowników

o   Projektowanie

o   Projekt zgodny z wnioskami i wymaganiami wynikającymi z analizy

o   I faza: projekt ogólny

§  Logiczny model systemu, uszczegółowienie specyfikacji funkcjonalnej

§  Koncepcja systemu, bazy danych, metod przetwarzania

o   II faza: projekt fizyczny

§  Interfejs użytkownika, struktury danych, programy, procedury, funkcje

o   III faza(efekt prac): dokumentacja projektu

§  Odwzorowanie organizacji dokumentów, struktury baz danych, procedur przetwarzania, wymagań sprzętowych, oprogramowania

o   Projektowanie systemu – techniki modelowania:

§  Modelowanie procesów biznesowych

§  Modelowanie przypadków użycia (Use Case Diagram) – funkcje, zadania i wymagania względem systemu

§  Modelowanie interakcji obiektów – diagramy sekwencji, aktywności i współpracy

§  Modelowanie obiektów – statyczna architektura systemy, struktura bazy relacyjnej, diagramy obiektów

§  Modelowanie dynamiki  - diagramy przejść, reakcja obiektów na odbieranie komunikaty

o   Programowanie

o   Ustalenie wymagań jakościowych – niezawodność, zgodność, dokładność, sprawność, kompletność, modyfikowalność, niezależność maszynowa, itp.

o   Określenie specyfikacji – specyfikacja zewnętrzna i wewnętrzna programu

o   Projektowanie  struktury programów – dekompozycja funkcjonalna projektu, definiowanie modułów programowych

o   Kodowanie modułów programowych – opracowanie kodów źródłowych

o   Testowanie oprogramowania

o   Sporządzanie dokumentacji systemu

o   Testowanie

o   Weryfikacja (verification) – testowanie zgodności systemu z wymaganiami zdefiniowanymi w fazie określania wymagań. Weryfikacja oznacza przeglądy, inspekcje, testowanie, sprawdzanie, audyt lub inną działalność ustalającą i dokumentującą czy składowe, procesy, usługi lub dokumenty zgadzają się z wyspecyfikowanymi wymaganiami.

o   Atestowanie (validation) – ocena systemu lub komponenty podczas lub na końcu procesu jego rozwoju na zgodności z wyspecyfikowanymi wymaganiami. Atestowanie jest więc weryfikacją końcową.

o   Wdrożenie

o   Przygotowanie organizacyjne obiektu

§  Dostosowanie struktury organizacyjnej i funkcjonalnej

§  Przygotowanie symboliki systemowej

o   Nabycie sprzętu i oprogramowania

o   Weryfikacja systemu

§  Testowanie sprzętu, procedur

§  Korekta usterek i niedociągnięć

§  Sprawdzenie funkcjonalności i integralności komponentów

o   Przygotowanie kadry do wdrożenia

o   Konwersja systemu

§  Równoległa, pilotowa, etapowa, bezpośrednia

 

19.  Modele tworzenia systemu informatycznego

Model etapów życia systemu informacyjnego – odwzorowanie procesu realnego postępowania w budowaniu systemu informacyjnego uwzględniające poszczególne fazy cyklu życia w postaci kanonicznej lub zmienionej przez istotne okoliczności zaburzające ten wzorzec.

Odwzorowanie procesu postępowania w budowaniu systemu informacyjnego uwzględniające poszczególne fazy cyklu życia.

  1. Model wodospadowy (kaskadowy)

 


Podstawową wadą podejścia kaskadowego jest brak możliwości poprawy błędów poprzednich etapów. Gdy dany etap się zakończy tworzenie przechodzi do następnego etapu i nie powraca się już do poprzednich etapów. Stosowanie takiego podejścia prowadzi najczęściej do powstawania wadliwych systemów, gdyż wiele błędów i niedociągnięć poprzednich etapów pojawia się dopiero w etapach późniejszych. (Np. już implementując system spostrzegamy, że na poziomie analizy nie wzięto pod uwagę pewnych aspektów. Zgodnie z podejściem wodospadowym analiza systemu nie powinna być poprawiana.)

  1. Model V

Stanowi pewne ulepszenie modelu kaskadowego. Pozimowe ułożenie kolejnych etapów pozwala na lepsze wykorzystanie opisu systemu stworzonego na danym etapie. Scenariusze kolejnych testów mogą być zawarte w dokumentacji na odpowiadającym im poziomie, co ułatwia stworzenie właściwej oceny systemu.

  1. Model przyrostowy.

Polega na rozbiciu całego etapu tworzenia systemu na mniejsze całości. System zaczyna się tworzyć od pewnej niewielkiej bazy a następnie jego funkcjonalność rozszerza poprzez dodawanie kolejnych modułów. Dla bazy i kolejnych modułów stosuje się osobno cały cykl tworzenia systemu.

  1. Model szybkiego prototypowania.

Stosowany przy projektach, w których nie da się prosto utworzyć kompletnej specyfikacji a stosunkowo łatwo jest utworzyć prototyp systemu. Prototyp taki potem wykorzystywany jest w analizie i implementacji właściwego systemu.

  1. Model spiralny.

Od rozpoczęcia do zakończenia procesu tworzenia systemu przechodzimy przez wszystkie etapy tworzenia systemu wielokrotnie. (kolejne iteracje) Za każdym razem wykonywana jest pełna sekwencja etapów od analizy do udostępniania. Pozwala to na skorygowanie błędów poprzednich etapów w kolejnych iteracjach. Po pierwszym wdrożeniu możemy zebrać opinie od użytkowników i testerów i zmienić analizę oraz projekt. Ponownie wycenić całość i zaimplementować, itd.

 

20.  Baza danych i system zarządzania bazą danych

Baza Danych

·       Zbiór danych opisujących pewien wybrany fragment rzeczywistości

Dane – surowe fakty przedstawiające cechy opisywanych obiektów (biznesowych

Informacja – efekt przetwarzania danych, znaczenie ukryte w danych

·       Abstrakcyjne odzwierciedlenie wybranego fragmentu rzeczywistości

 

Cechy danych w bazie danych:

·       Dane są zgodne z rzeczywistością

·       Dane są zorganizowane według określonego modelu danych

 

Model danych:

·       Struktury danych

·       Operacje na danych

·       Ograniczenia integralnościowe

·       Rodzaje:

o   Hierarchiczny

o   Sieciowy

o   Relacyjny

o   Obiektowy

o   Nie-relacyjny

 

Schemat bazy danych – definicja struktury danych i powiązań między danymi

System zarządzania bazą danych

Oprogramowanie umożliwiające tworzenie i eksploatację bazy danych

 

Cechy:

·       Zarządca dostępu do danych w bazie danych

·       Zapewnia środowisko dla efektywnego składowania pobierania i przetwarzania danych

·       Ukrywa przed zewnętrznymi aplikacjami wewnętrzną złożoność bazy danych

·       Zapewnia niezależność pomiędzy fizycznym i logicznym formatem danych

·       Umożliwia współdzielony dostęp do danych dla wielu użytkowników i aplikacji

 

Funkcje:

§  Zarządzanie składowaniem danych

§  Zarządzanie autoryzacją dostępu do danych

§  Zarządzanie integralnością danych

§  Synchronizacja współbieżnego dostępu do danych

§  Zapewnienie bezpieczeństwa danych w przypadku awarii

§  Zarządzanie słownikiem danych

§  Zapewnienie języka dostępu do danych

Użytkownicy systemu bazy danych:

·       Administratorzy – systemowi, bazy danych

·       Analitycy systemowi i projektanci baz danych

·       Programiści aplikacji

·       Użytkownicy końcowi

 

System Bazy danych = system zarządzania bazą danych + baza danych

System informatyczny = system bazy danych + programy użytkowników – aplikacje

 

21.  Model związków encji

Podstawowy model koncepcyjny (model logiczny – model przedstawiający świat rzeczywisty w sposób uniwersalny – niezależność od technicznych uwarunkowań, w postaci graficznej) w projektowaniu systemów baz danych

 

·       Sformalizowana, graficzna reprezentacja świata rzeczywistego

·       Obiekty biznesowe świata rzeczywistego – reprezentowane za pomocą encji

·       Powiązania pomiędzy obiektami biznesowymi świata rzeczywistego – reprezentowane za pomocą związków pomiędzy encjami

·       Na diagramie związków encji

Komponenty modelu ER:

·       encje – reprezentuje obiekt biznesowy świata rzeczywistego

o   Obiekty fizyczne(materialne), np. pracownik, produkt

o   Obiekty abstrakcyjne (niematerialne), np. dokumenty – faktura, pozycja zamówienia, zdarzenia – złożenia zamówienia, stan rzeczywistości – posiadanie samochodu

o   Wystąpienie encji – instancja encji

o   Encja – tabela, wystąpienie encji – wiersz w tabeli

o   Opisana przez zestaw atrybutów – cechy obiektu

·       Atrybut encji – cecha charakterystyczna (właściwość) obiektu świata rzeczywistego reprezentowanego przez encję

o   Atrybut – kolumna tabeli

o   Atrybuty obowiązkowe (*) nie mogą przyjmować wartości pustych

o   Atrybuty opcjonalne (○) mogą przyjmować wartości puste

o   Odpowiedniego typu

o   Domena atrybutu –

§  dziedzina wartości atrybutu może być określona za pomocą domeny,  czyli zbioru wartości, które może przyjmować atrybut

§  Dwa różne atrybuty mogą współdzielić tą samą domenę

o   Identyfikatory

§  Unikalny id – klucz unikalny

·       (U), atrybut przyjmujący unikalną wartość dla wszystkich wystąpień encji

·       Może być opcjonalny

§  Podstawowy unikalny id – klucz podstawowy

·       Jego zadaniem jest jednoznaczna identyfikacja każdego wystąpienia encji

·       Atrybut obowiązkowy

·       (#)

·       Związek pomiędzy encjami – asocjacja

o   Reprezentuje zależność (powiązanie) występującą pomiędzy obiektami świata rzeczywistego

o   Graficzna reprezentacja – linia ciągła lub przerywana, na końcach możliwa kurza łapka, na każdym związku opis ułatwiający interpretację związku

o   Cechy związku:

§  Typ związku

·       Jeden do wiele (1:M)

·       Wiele do wiele (M:N)

·       Jeden do jeden (1:1)

§  Obowiązkowość/opcjonalność związku

·       Obowiązkowość - Linia ciągła – w danym związku, istnienie wystąpienia jednej encji wymaga istnienia wystąpienia drugiej encji

·       Opcjonalność – linia przerywana – w danym związku, istnienie wystąpienia jednej encji nie wymaga istnienia wystąpienia drugiej encji

§  Stopień związku

 

22.  Algorytm - definicja, złożoność, efektywność programu komputerowego

Algorytm – jest ciągiem działań, dzięki którym stan początkowy doprowadza się do pożądanego stanu ostatecznego

Złożoność algorytmów: (ang. algorithm complexity)
Liczba elementarnych operacji, np. porównań, dodawań, mnożeń, przestawień elementów, wykonywanych przez algorytm, podawana na ogół w zależności od długości (ilości) danych. Na przykład liczba porównań potrzebnych do znalezienia najmniejszego (lub największego) elementu w nieuporządkowanym zbiorze jest o jeden mniejsza od liczby elementów w zbiorze. A w algorytmie porządkowania przez wybór jest wykonywanych n(n-1)/2 porównań i n-1 przestawień elementów, gdy porządkowany jest zbiór złożony z n elementów. Rzeczywisty czas działania algorytmu może być podany dopiero dla jego konkretnej realizacji, przeznaczonej dla konkretnego komputera.

Wyróżniany złożoności:

- złożoność pamięciowa – wynika z liczby i rozmiaru struktury danych wykorzystywanych w algorytmie

- złożoność czasowa – wynika z liczby operacji elementarnych wykonywanych w trakcie przebiegu algorytmu

Złożoność czasowa – zależność pomiędzy rozmiarem danych wejściowych a liczbą operacji elementarnych wykonywanych w trakcie przebiegu algorytmu (podawana jako funkcja rozmiaru danych, której wartości podają liczbę operacji)

W praktyce złożoność czasowa decyduje o przydatności algorytmów, ponieważ trzeba rozwiązywać algorytmicznie coraz większe zadania, rozwijane są komputerowe systemy czasu rzeczywistego.

 

Inną miarą jakości algorytmu jest jego efektywność określana na podstawie testowania szybkości jego działania na przykładowych danych. Złożoność i efektywność można również zdefiniować do programów.

 

23.  Istota programowania obiektowego

Programowanie obiektowe (ang. object-oriented programming) — metodyka tworzenia programów komputerowych, która definiuje programy za pomocą obiektów - elementów łączących stan (czyli dane) i zachowanie (czyli procedury, tu: metody). Obiektowy program komputerowy wyrażony jest jako zbiór takich obiektów, komunikujących się pomiędzy sobą w celu wykonywania zadań.

Podejście to różni się od tradycyjnego programowania proceduralnego, gdzie dane i procedury nie są ze sobą bezpośrednio związane. Programowanie obiektowe ma ułatwić pisanie, konserwację i wielokrotne użycie programów lub ich fragmentów.

Podstawowe założenia programowania obiektowego:

- Abstrakcja - Każdy obiekt w systemie służy jako model abstrakcyjnego "wykonawcy", który może wykonywać pracę, opisywać i zmieniać swój stan, oraz komunikować się z innymi obiektami w systemie, bez ujawniania, w jaki sposób zaimplementowano dane cechy.

- Enkapsulacja - ukrywanie implementacji, hermetyzacja. Czyli ukrywanie pewnych danych, składowych lub metod, tak aby były one (i ich modyfikacja) dostępne tylko przez metody wewnętrzne danej klasy. Zapewnia, że obiekt nie może zmieniać stanu wewnętrznego innych obiektów w nieoczekiwany sposób.

- Polimorfizm (wielopostaciowość) – mechanizmy pozwalające programiście używać wartości, zmiennych i podprogramów na kilka różnych sposobów (oznaczanie różnych rzeczy tymi samymi nazwami, związane z przeciążaniem metod/operatorów).

- Dziedziczenie – możliwość tworzenia specjalizowanych obiektów na podstawie bardziej ogólnych (czyli tworzenie nowej klasy na bazie klasy już istniejącej: nadklasa-podklasa)

 

24.  Technologie Web 2.0

Web 2.0 – potoczne okreslenie serwisów internetowych, powstałych po 2001, w których działaniu podstawowa role odgrywa tresc generowana przez użytkowników danego serwisu. Wbrew numeracji wersji oprogramowania, Web 2.0 nie jest nowa World Wide Web ani Internetem, ale innym sposobem na wykorzystanie jego dotychczasowych zasobów. Uważa sie, że serwisy Web 2.0 zmieniaja paradygmat interakcji miedzy włascicielami serwisu i jego użytkownikami, oddajac tworzenie wiekszosci tresci w rece użytkowników.

Strony Web 2.0 maja tendencje do korzystania z nowych technik takich jak:

XHTML, SOAP, AJAX, XUL, RDF, dużo częstsze wykorzystywanie kanałów RSS i Atom oraz bardzo szerokie rozpropagowanie usług sieciowych. Ten termin został spopularyzowany dzieki firmie O'Reilly Media, która w 2004 roku zorganizowała szereg konferencji poswieconych temu nowemu trendowi internetowemu.

Cechy Web 2.0

· Techniczne

§  wykorzystanie mechanizmu wiki, blogów

§  udostepnianie interfejsów XML, które umożliwiaja innym stronom i

§  programom korzystanie z danych Web 2.0 (przede wszystkim przez RSS i Atomż

§  używanie nowych technologii, jak np. AJAX czy Ruby on Rails

· Społeczne

§  generowanie tresci przez użytkowników,

§  użycie folksonomii

§  tworzenie sie wokół serwisów rozbudowanych społecznosci

§  wykorzystanie kolektywnej inteligencji

§  wykorzystanie otwartych licencji, jak Creative Commons czy GNU GFDL

· Wyglad

§  pastelowe barwy

§  gradienty

§  zaokraglenia

§  duże czcionki

Społeczność użytkowników

            Cechą charakterystyczną jest duża interakcje między członkami społeczności dlatego serwisy Web 2.0 umownie nazywa się dynamicznymi-dla odróżnienia od statycznych serwisów tradycyjnych, które nie umożliwiają interakcji. Interakcja przejawia się m.in. w mozliowści budowania sieci kontaktów, zapraszania znajomych, wysyłania prywatnych wiadomości między użytkownikami, a także w sprawniejszym przepływie informacji, który odbywa się najczęściej bezpośrednia za pomocą forów i grup dyskusyjnych.

Pierwsze społeczności pojawiły się kilka lat temu w Stanach Zjednoczonych. Były to friendster.com(utrzymywanie kontaktów towarzyskich) tribe.net(aklimatyzacja po przeprowadzce do nowego  miasta, ułatwia znalezienie pracy i mieszkania) LinkedIn (utrzymywanie kontaktów biznesowych). Wszystkie te serwisy odniosły ogromny sukces i podważyły dotychczasową supremację „statycznych” gigantów.

Przykłady stron Web 2.0

-       polskie

·       Epuls

·       Fotka.pl

·       Grono.net

·       Nasza-klasa.pl

·       Wykop.pl

-       zagraniczne z polskimi wersjami jezykowymi

·       Facebook

·       MySpace

·       Wikipedia

·       YouTube

·       Last.fm

INNE PRZYKŁADY:

BitTorrent – protokół wymiany i dystrybucji plików przez Internet, którego celem jest odciążenie łączy serwera udostępniającego pliki. Jego największa zaleta w porównaniu do protokołu HTTP jest podział pasma pomiędzy osoby, które w tym samym czasie pobierają dany plik. Oznacza to, że użytkownik w czasie pobierania wysyła fragmenty pliku innym użytkownikom.

Flickr – serwis internetowy stworzony do gromadzenia i udostępniania zdjęć cyfrowych online.

DoubleClick to jedna z firm zajmujących sie reklamami w Internecie, głównie w formie bannerów reklamowych i animacji.

 

25.  Podpis elektroniczny i cyfrowy certyfikat

Podpis elektroniczny służy do procesu weryfikacji, że wiadomość pochodzi od danego nadawcy oraz że wiadomość nie została zmieniona – UWIERZYTELNIANIE (autentykacja)

·       Nadawca szyfruje wiadomość za pomocą swojego klucza prywatnego

·       Odbiorca odszyfrowuje za pomocą klucza publicznego nadawcy

Cyfrowy podpis –składanie

Wiadomość – utworzenie skrótu z wiadomości za pomocą funkcji haszującej – zaszyfrowanie skrótu z wiadomości za pomocą klucza nadawcy – wysłanie tekstu wiadomości I szyfrogramu skrótu do odbiorcy

Cyfrowy podpis – weryfikacja

Otrzymanie obu przesyłek przez odbiorcę – utworzenie własnego skrótu z wiadomości za pomocą tej samej funkcji haszującej – odszyfrowanie przesłanego skrótu z wiadomości za pomocą publicznego klucza nadawcy – porównanie obu skrótów: jeśli skróty identyczne to wiadomość autentyczna, jeśli różne  - zmieniona.

Identyfikacja i uwierzytelnianie – proces określenia nadawcy oraz weryfikacji, że nadawca wiadomości jest tym, za kogo się podaje

Środki identyfikacji: hasło, PIN, cyfrowy certyfikat

Transmisja od klienta do serwera haseł lub PIN-ów zaszyfrowanych w celu uniknięcia ich składowania w serwerze, a zatem uniemożliwienie ich kradzieży

CYFROWY CERTYFIKAT – jest narzędziem identyfikacji w przeciwieństwie do cyfrowego podpisu, który jest narzędziem autentykacji

·       Celem cyfrowego certyfikatu jest potwierdzenie związku między osobą fizyczną lub prawną i jej kluczem publicznym

·       Wydawane przez organizacje certyfikujące

Na certyfikat składa się:

·       Informacje identyfikujące certyfikowaną osobę: imię, nazwisko, adres, data urodzenia, itp.

·       Klucz publiczny certyfikowanej osoby

·       Numer certyfikatu

·       Okres ważności certyfikatu

·       Informacje o wystawcy certyfikatu

·       Cyfrowy podpis organizacji certyfikującej

Użycie certyfikatu:

·       Wysyłając zaszyfrowaną wiadomość do odbiorcy, nadawca dołącza swój certyfikat

·       Odbiorca najpierw sprawdza autentyczność publicznego klucza nadawcy, posługując się publicznym kluczem organizacji certyfikującej

·       Następnie odbiorca sprawdza autentyczność wiadomości nadawcy

 

 

 

Ta strona internetowa została utworzona bezpłatnie pod adresem Stronygratis.pl. Czy chcesz też mieć własną stronę internetową?
Darmowa rejestracja