Update TODO.txt after meeting
authorDaan Sprenkels <dsprenkels@gmail.com>
Fri, 25 Nov 2016 09:18:24 +0000 (10:18 +0100)
committerDaan Sprenkels <dsprenkels@gmail.com>
Fri, 25 Nov 2016 09:19:04 +0000 (10:19 +0100)
TODO.txt
report/reflection.tex

index 5648089..2d13f6d 100644 (file)
--- a/TODO.txt
+++ b/TODO.txt
@@ -27,10 +27,10 @@ Reflect on the whole process, including
    and possibly also the TestCMS code.
 
 For example, questions to consider are:
-   - Kelley:  How good (useful, clear, ...) is the ASVS? How could it be improved?
-   - Charlie: How useful were code analysis tools? How could they be improved? How did you experience the rates and amounts of false and true positives? How might that be improved?
-   - Wouter:  What were the bottlenecks in doing the security review in your experience?
-   - Mart:    Maybe in the points above you can distinguish different (types of) security flaws or verification requirements. E.g., are some (categories of) verification requirements easier to check than others?
-   - Daan:    If you would have to do something like this again, what would you do differently? Eg. about organising things within the group: i.e., in retrospect, what do you think the best approach is to organise and divide the work in a team? (Dividing the verification requirements over the team members? Or by dividing the code? Or letting everyone look at everything, because different people will spot different things? Or work in pairs where one person confirms the findings of the other? ...)
-   - Kelley:  About the TestCMS code: are there important aspects that could (or should) be changed to improve security? Or aspects that could be changed to facilitate doing a security review?
-   - Wouter:  This last question might be generalised, to (web) applications in general, rather than this specific example of the TestCMS: ie. if you were to develop an application that will need to be subjected to a security review, would you do anything differently, given your experience in doing this, and if so, what and why?
+   - [x] Kelley:  How good (useful, clear, ...) is the ASVS? How could it be improved?
+   - [/] Charlie: How useful were code analysis tools? How could they be improved? How did you experience the rates and amounts of false and true positives? How might that be improved?
+   - [x] Wouter:  What were the bottlenecks in doing the security review in your experience?
+   - [ ] Mart:    Maybe in the points above you can distinguish different (types of) security flaws or verification requirements. E.g., are some (categories of) verification requirements easier to check than others?
+   - [x] Daan:    If you would have to do something like this again, what would you do differently? Eg. about organising things within the group: i.e., in retrospect, what do you think the best approach is to organise and divide the work in a team? (Dividing the verification requirements over the team members? Or by dividing the code? Or letting everyone look at everything, because different people will spot different things? Or work in pairs where one person confirms the findings of the other? ...)
+   - [ ] Kelley:  About the TestCMS code: are there important aspects that could (or should) be changed to improve security? Or aspects that could be changed to facilitate doing a security review?
+   - [/] Wouter:  This last question might be generalised, to (web) applications in general, rather than this specific example of the TestCMS: ie. if you were to develop an application that will need to be subjected to a security review, would you do anything differently, given your experience in doing this, and if so, what and why?
index 25a2043..9b3f7d1 100644 (file)
@@ -48,3 +48,6 @@ some components, like input escaping, are just not present.
 
 \subsection{On the code \& streamlining subsequent security audits}
 \input{reflection.code_and_auditing.tex}
+
+\subsection{On the general development of secure software}
+\input{reflection.secure_development.tex}