28/07/2015

Item Analysis explained

Making the Most of Exams: Procedures for Item Analysis
Raymond M. Zurawski, Ph.D.
Associate Professor and Coordinator of Psychology
St. Norbert College

One of the most important (if least appealing) tasks confronting faculty members is the evaluation of
student performance. This task requires considerable skill, in part because it presents so many choices.
Decisions must be made concerning the method, format, timing, and duration of the evaluative
procedures. Once designed, the evaluative procedure must be administered and then scored,
interpreted, and graded. Afterwards, feedback must be presented to students. Accomplishing these
tasks demands a broad range of cognitive, technical, and interpersonal resources on the part of faculty.
But an even more critical task remains, one that perhaps too few faculty undertake with sufficient skill
and tenacity: investigating the quality of the evaluative procedure.
Even after an exam, how do we know whether that exam was a good one? It is obvious that any exam
can only be as good as the items it comprises, but then what constitutes a good exam item? Our
students seem to know, or at least believe they know. But are they correct when they claim that an
item was too difficult, too tricky, or too unfair?
Lewis Aiken (1997), the author of a leading textbook on the subject of psychological and educational
assessment, contends that a “postmortem” evaluation is just as necessary in classroom testing as it is
in medicine. Indeed, just such a postmortem procedure for exams exists­­item analysis, a group of
procedures for assessing the quality of exam items. The purpose of an item analysis is to improve the
quality of an exam by identifying items that are candidates for retention, revision, or removal. More
specifically, not only can the item analysis identify both good and deficient items, it can also clarify
what concepts the examinees have and have not mastered.
So, what procedures are involved in an item analysis? The specific procedures involved vary, but
generally, they fall into one of two broad categories: qualitative and quantitative.

Qualitative Item Analysis
Qualitative item analysis procedures include careful proofreading of the exam prior to its
administration for typographical errors, for grammatical cues that might inadvertently tip off
examinees to the correct answer, and for the appropriateness of the reading level of the material. Such
procedures can also include small group discussions of the quality of the exam and its items with
examinees who have already taken the test, or with departmental student assistants, or even experts in
the field. Some faculty use a “think­aloud test administration” (cf. Cohen, Swerdlik, & Smith, 1992)
in which examinees are asked to express verbally what they are thinking as they respond to each of
the items on an exam. This procedure can assist the instructor in determining whether certain students
(such as those who performed well or those who performed poorly on a previous exam)
misinterpreted particular items, and it can help in determining why students may have misinterpreted a
particular item.

Quantitative Item Analysis
In addition to these and other qualitative procedures, a thorough item analysis also includes a number
of quantitative procedures. Specifically, three numerical indicators are often derived during an item
analysis: item difficulty, item discrimination, and distractor power statistics.

Item Difficulty Index (p)
http://faculty.mansfield.edu/lfeil/201/item­analysis­explained.htm

1/3

(Alternatively. correct vs.e. Thus. The item discrimination index is calculated in the following way: 1. 3. Notice that no test item need have only one p value. I’m going to look at only one of those. but all we learn for certain is how they did on the exam we gave them. but we cannot be certain why they did so.28/07/2015 Item Analysis explained The item difficulty statistic is an appropriate choice for achievement or aptitude tests when the items are scored dichotomously (i. it can be derived for true­false.20. the interpretation of this statistic is not. obtained when all examinees answered the item correctly. multiple­choice.00.) 2. symbolized D. As such.00. that is. can be computed simply by dividing the number of test takers who answered the item correctly by the total number of students who answered the item. “does the test item differentiate those who did well on the exam overall from those who did not?” or “does the test item differentiate those who know the material from those who do not?” In a more technical sense then. an instructor may gain insight by computing the item difficulty level for a number of different subgroups within a class.edu/lfeil/201/item­analysis­explained. p can range between 0. The index parallels the difficulty index in that it can be used whenever items can be scored dichotomously. The item discrimination index tests the test in the hope of keeping the correlation between knowledge and exam performance as close as it can be in an admittedly imperfect system.. To illustrate. the item discrimination index. consider an item with a difficulty level of 0. Although the computation of the item difficulty index p is quite straightforward. the item discrimination index can take on negative values and can range between ­1.  Subtract the two difficulty levels such that D = p upper­ plower. where the instructor can convert the range of possible point values into the categories “passing” and “failing. high scoring and low scoring. we must rely on other item analysis procedures. Consider the http://faculty. as correct or incorrect. both qualitative and quantitative ones. such as those who did well on the exam overall and those who performed more poorly.00 and 1. multiple­ choice. obtained when no examinees answered the item correctly. incorrect).00. item discrimination analysis addresses the validity of the items on a test. symbolized p. Ordinarily. the extent to which the items tap the attributes they were intended to assess. one could create groups made up of the top and bottom quintiles or quartiles or even deciles. How is the item discrimination index interpreted? Unlike the item difficulty level p . and for those essay items which the instructor can score as “pass” or “fail. Does this item difficulty level mean that the item was challenging for all but the best prepared of the examinees? Does it mean that the instructor failed in his or her attempt to teach the concept assessed by the item? Does it mean that the students failed to learn the material? Does it mean that the item was poorly written? To answer these questions.” The item difficulty index. and matching items. this is done by dividing the examinees into those scoring above and those scoring below the median. Not only may the p value vary with each class group that takes the test.htm 2/3 .  Compute the item difficulty levels separately for the upper (p upper) and lower (p lower) scoring groups.  Divide the group of test takers into two groups. As with item difficulty. such as. Item Discrimination Index (D) Item discrimination analysis deals with the fact that often different test takers will answer a test item in different ways. and 1. Which one to use depends on the type of testing situation and the nature of the items. and even for essay items.mansfield. and hence it is most appropriate for true­false. it addresses questions of considerable interest to most faculty. As a proportion. and matching items.” We test because we want to find out if students know the material. item discrimination analysis involves a family of techniques. We do know that 20% of the examinees answered the item correctly.

Finally. Published by Oryx Press in conjunction with James Rhem &                    Associates. In such a situation pupper = 1. It suggests that those who knew the material and were well­prepared passed the item while all others failed it. There are many reasons to include at least some such items. The instructor should simply be aware that neither of these types of items functions well to make discriminations among those taking the test. Swerdlik.00 and the item is said to be a perfect positive discriminator. the value of the item discrimination index D is 1.. Most psychometricians would say that items yielding positive discrimination index values of 0.htm 3/3 . Inc. (ISSN 1057­2880) References: Aiken. there’s nothing in the data to indicate whether the item itself was good or not. As such.mansfield. You might consider enlisting the aid of your departmental student assistants to help with item distractor analysis. the value of the item discrimination index will be maximized when only half of the test takers overall answer an item correctly; that is. (1992). half of the examinees answered a particular item correctly. Psychological testing and assessment (9th ed. Boston.).28/07/2015 Item Analysis explained following situation: suppose that overall.             © Copyright 1996­1999.. Mountain View.50. or replace.). an item analysis can certainly help determine whether or not the items on your exams were good ones and to determine which items to retain. notice that the difficulty and discrimination are not independent.30 and above are quite good discriminators and worthy of retention for future exams. Similarly. Though it’s not as unlikely as winning a million­dollar lottery. Psychological testing and assessment: An introduction to tests and measurement (2nd ed. take heart: item difficulty and discrimination analysis programs are often included in the software used in processing exams answered on Scantron or other optically scannable forms. R. Does this mean that it is never appropriate to retain items on an exam that are passed by all examinees.J. (1997). when p = 0.E. Inc.    http://faculty.edu/lfeil/201/item­analysis­explained. and that all of the examinees who scored above the median on the exam answered the item correctly and all of the examinees who scored below the median answered incorrectly.] Conclusion To those concerned about the prospect of extra work involved in item analysis. Once again. Very easy items can reflect the fact that some relatively straightforward concepts were taught well and mastered by all students.R. revise.. L. Indeed. If all the students in both the upper and lower levels either pass or fail an item. finding a perfect positive discriminator on an exam is relatively rare. these analyses can often be performed for you by personnel in your computer services office. M. CA: Mayfield Publishing Company. the ideal situation is one in which the half who passed the item were students who all did well on the exam overall. an instructor may choose to include some very difficult items on an exam to challenge even the best­prepared students. MA: Allyn and Bacon. thus providing them with an excellent learning experience. In any case.00.  [material omitted.K. Cohen. & Smith. or by none of the examinees? Not at all. As such.. D.00 and p lower = 0. Many would regard this outcome as ideal.